Pagina's

vrijdag 5 oktober 2018

Lustrumdag Biomedisch Informatiespecialisten (BMI) - 25 september 2018

Op dinsdag 25 september troffen 50 biomedisch informatiespecialisten elkaar in de Deventer om te vieren dat de afdeling Biomedische Informatie (BMI), onderdeel van beroepsvereniging KNVI, 65 jaar bestaat.

Omdat we vanuit Avans studenten hbov en fysiotherapie trainen in het zoeken in medische bronnen , nemen we al een tijdje deel aan deze bijeenkomsten van medisch informatiespecialisten en maken we dankbaar gebruik van hun bijscholingsmogelijkheden.












Tijdens een terugblik van voorzitter Simone Visser op 65 jaar BMI werd gememoreerd aan de oprichting van de Centrale Catalogus Ziekenhuis (CCZ), de oprichting van de Commissie Bij- en Nascholing (CBN) voor de eigen deskundigheidsbevordering (omdat er weinig scholing is op dit specifieke vakgebied) en de oprichting van de Nederlandse Artikelendatabank voor de Zorg (NAZ).

Frank Huysmans, hoogleraar bibliotheekwetenschap, schetste vervolgens de toekomstige veranderingen in de bibliotheken en de rol van informatiespecialisten hierbij.

Samengevat in een paar slides ziet dat er zo uit:

De wetenschap verandert:




















En bibliotheken veranderen mee:






































Hierna volgde een leuke ochtend over 'Omdenken' en een heerlijke lunch met tijd om bij te praten met bekende en minder bekende vakgenoten.
We sloten de dag af met een wandeling door Deventer onder leiding van een aantal ervaren stadsgidsen.

Meer informatie over dit jubileum en interviews met bekende BMI-ers staat op de Website van Informatieprofessional.nl  


woensdag 2 mei 2018

Research datamanagement en het delen van data in de gezondheidszorg


Op de verdiepingsdag van de BMI (afdeling biomedische informatie van de KNVI) op 17 april 2018 heb ik een aantal interessante presentaties bijgewoond.
De BMI-dag vond plaats bij GGZ Centraal, locatie Zon en Schild in Amersfoort.

Ingeborg Verheul  - Research datamanagement
Ingeborg werkt bij het
LCRDM : Landelijk Coördinatiepunt Research Data Management . Deze organisatie valt onder SURF en heeft (kort door de bocht) als doel om de voordelen van datadelen te laten zien.

 Tijdschriften vragen onderzoekers in toenemende mate om data bij publicatie van het artikel. Onderzoekers zijn vaak huiverig om data te delen. Ze geven aan dat hun data niet interessant zijn, data niet te vinden zijn etc.

Onderzoek wordt steeds data-intensief (digitalisering), data steeds complexer. Het belang van onderzoek neemt toe, onderzoek moet reproduceerbaar zijn.
Waar mogelijk: hergebruik van data, vaak lastig bij medische data.
Het gaat niet zozeer om open data (dat schrikt onderzoekers vaak af), maar FAIR data:
Findable
Accessible
Interoperable
Reusable

Open science is als een paraplu: open als mogelijk, gesloten als nodig

Er is meer samenwerking nodig! Het LCRDM speelt hierin een rol door verschillende partijen met elkaar in contact te brengen, bijeenkomsten te organiseren. Er is inmiddels een discussielijst voor RDM(research datamanagement) opgezet. Zie www.lcrdm.nl Op deze site is ook een RDM wiki te vinden. De site dient als kennisplatform!

Het LCRDM richt zich vooral op onderzoeksondersteuners (datastewards), dit kunnen ook informatiespecialisten zijn (zijn goed in het vertalen van de vraag van de onderzoeker).

Jan Willem Boiten  (Lygature) - Data4lifesciencesHet delen van data is in de gezondheidszorg heel erg belangrijk. Waarom is actie nodig? Het duurt nu te lang (gemiddeld zo’n 17 jaar) voordat de resultaten van onderzoek gebruikt kunnen worden voor patiënten! Case : screening baarmoederhalskanker. 


Problemen bij het delen van data zijn niet zozeer technisch, maar eerder ethisch, politiek, administratief.

Het probleem bij het versnellen van het toepassen van data is o.a. dat de kwaliteit van data onvoldoende geborgd is, veel onderzoek is niet reproduceerbaar.  Daarom gaan mensen toch weer nieuwe studies opstarten
Maar: heel veel intitiatieven mbt open science. Dit biedt uitdagingen en kansen voor UMCs. UMC’s hebben HANDS opgezet: Handbook voor data stewardship = website (onderzoeker is de datasteward, itt het verhaal van het LCRDM). Hoe moeten patiënten geïnformeerd worden over hergebruik van gegevens of lichaamsmateriaal voor wetenschappelijk onderzoek?


Simone van Kleef en Carla Sloof  - Datamanagement en mogelijke rollen van de informatiespecialist in het Sint Antonius ziekenhuis

De informatiespecialisten van het St. Antonius Ziekenhuis (Nieuwegein) hebben een Workshop gegeven over hoe je praktisch met datamanagement aan de slag kunt. Aanleiding om hiermee te starten was dat er bij het Wetenschapsbureau uren tekort waren, waarna de bibliotheek zélf het intitiatief nam. Als Informatiespecialist ben je gewend om systematisch na te denken.

Mogelijke rollen voor de informatiespecialist (ahv de onderzoekscyclus):

Bron: Simone van Kleef & Carla Sloof 


Opzet > Uitvoering>Analyse>Publicatie>Implementatie

Opzet: plannen: FAIR – awareness

Opzet: aanmaken: Advies opzet onderzoeksdatabase

Uitvoering: beheren: beheer datamanagementsysteem

Analyse: Advies open science-methodologie

Publicatie: archiveren / publiceren: toegankelijk maken van data & publicaties

Implementatie: stimuleren hergebruik (suggesties?)



vrijdag 6 april 2018

VOGIN IP 2018: textmining, wikidata en blockchain


Op woensdag 28 maart 2018 organiseerden VOGIN en vakblad InformatieProfessional gezamenlijk voor de zesde keer een VOGIN-IP-lezingendag. Dat is een dag vol met lezingen en workshops rond het thema “zoeken en vinden van informatie”. Voor iedereen die zich met informatie bezighoudt is dit een dag om te leren over de nieuwste trends en ontwikkelingen en om met vakgenoten te praten over de vernieuwingen in ons vakgebied. Het evenement vond plaats in de Openbare Bibliotheek van Amsterdam (OBA).

Het was druk in de OBA, honderden informatiespecialisten, functioneel beheerders, dataspecialisten etc. volgden gezamenlijk de keynote-lezing van de Amerikaanse bilbliothecaris Joseph Bush over artificial intelligence vs automation. Strekking van zijn (vrij technische) verhaal was dat je ondanks geautomatiseerd classificeren van informatie en het geautomatiseerd toekennen van metadata nog steeds ook mensen (informatiespecialisten!) in dit proces nodig hebt, onderwerpsspecialisten die toezicht houden op het proces. Hij hield verder een pleidooi om beter gebruik te maken van de data binnen organisaties: verzamelen, verwerken, analyseren en voorspellingen doen.

Meer lezen:
https://vogin-ip-lezing.net/presentaties-2018/#busch


In een productpresentatie van Marco van Gennip van Lexis Nexis werd gemeld dat 80% van de studenten in natural language zoekt (en niet met booleaanse operatoren). Hierop probeert LexisNexis in te spelen bij de verbetering van de interface van de databank. Hierover had ik nog wel wat meer willen weten.
 

In de Workshop Textmining van Hugo Benne (docent aan de ICT opleiding van de Haagse Hogschool) gingen we aan de slag met de gratis tool RapidMiner. We hadden thuis al een reader moeten bestuderen, de software moeten installeren en een paar videofilmpjes bekeken.
Textmining
 of textdatamining verwijst naar het proces om met allerhande ICT-technieken waardevolle informatie te halen uit grote hoeveelheden tekstmateriaal. Bij textmining wordt gezocht naar patronen in (of nieuwe informatie uit) ongestructureerde of semigestructureerde tekst in de vorm van natuurlijke taal.
Voorbeelden: een supermarkt onderzoekt in de transactionele gegevens uit de kassaregistraties welke producten vaak samen worden verkocht zodat deze artikelen fysiek bij elkaar in de buurt kunnen worden uitgestald in de winkel.


In 
het textmining proces heb je grofweg drie subprocessen: stap 1 is het bepalen welke dat je wilt gaan minen en het inlezen daarvan (collect); stap 2 is het voorbereiden (opschonen, structureren) van deze data (pre-proces) en de derde stap is het analyseren van de data (analyze).
In de workshop moesten we aan de slag met een casus over senimentanalyse van filmreviews. We moesten verschillende processen toepassen op een excelbestand met 1226 filmreviews voor 17 verschillende speelfilms. Doel van de opdracht was om te bepalen wat het sentiment van de reviews was en dat te vergelijken met de cijfers die de reviewers aan de film hadden toegekend.

Hoewel de workshop voor mij wat te technisch was, was mijn nieuwsgierigheid gewekt, ook omdat ik een jaar geleden op een bijeenkomst van medisch bibliothecarissen al had gehoord dat de technieken uit tekst- en datamining in toenemende mate worden toegepast op wetenschappelijke literatuur, zoals tijdschriftartikelen, monografiën en conference papers. Ik zal hierover meer informatie verzamelen en een workshop(je) geven voor geïnteresseerde collega’s.



Rein Tellier en Elwin de Man, werkzaam bij het Regionaal informatie knooppunt van de Politie Noord-Holland vertelden over hun project Forensisch OSINT (open source intelligence), een nieuwe methode van zoeken en vinden. Veel open deuren, maar wel interessant om te horen hoe zorgvuldig en juridisch correct de politie zich moet gedragen bij het verzamelen van informatie (op internet) over verdachte personen.
Zelfs hun presentatie mag niet zomaar op de Vogin-site gezet worden: Informatie over deze presentatie kan per mail aangevraagd worden bij elwin.de.man[at]politie.nl


Jaco van Ossenbruggen (Centrum Wiskunde en Informatica) hield een interessant verhaal over taal en veranderende begrippen: Detecteren van veranderingen in de betekenis van woorden en concepten (Enriching linked open data with distributional semantics to concept drift) oftewel.

Concept drift heeft betrekking op de veranderende betekenis van begrippen. Vroeger was het begrip ‘wetenschap’ verbonden met het bestuderen van Bijbelse teksten. Nu juist een seculiere activiteit. Of: Woorden die we gebruiken veranderen: migranten, vluchtelingen. Kunnen we relaties in linked open data gebruiken om te bestuderen hoe een concept veranderd is, bijv de term gay?
De onderzoeksgroep van Jaco bekijkt hoe fouten in linked open data voorkomen/opgelost kunnen worden, zodat je als je twee informatiesystemen koppelt één lijst met concepten en relaties kunt gebruiken. Dit heet ontology matching en heeft een link met het bouwen van een thesaurus om informatie van metadata te voorzien. Ook viel het begrip ‘distributional semantics’: welke woorden komen vaak met andere woorden voor?
En kun je voorspellen dat een term uit de mode raakt, wordt samengevoegd of opgesplitst?
De Waybackmachine: DBpedis probeert dit voor open data, trends analyseren.

Meer lezen:
https://vogin-ip-lezing.net/presentaties-2018/#ossenbruggen


Maarten Dammers hleld een pleidooi voor het delen van data via Wikidata
Wikidata is a free, collaborative, multilingual, secondary database, collecting structured data to provide support for Wikipedia, Wikimedia Commons, the other wikis of the Wikimedia movement, and to anyone in the world.


Wikidata is 5 jaar geleden gestart en heeft nu al 49 miljoen items, waaronder 3 miljoen over personen. Wikidata bevat 280.000 schilderijen. Data worden geautomatiseerd verzameld. Paar jaar geleden heeft iemand alle straten ingeladen in wikidata. Leek niet nuttig, maar bleek later handig ivm het koppelen van foto’s en informatie aan namen en schilders enz.
Elke claim is voorzien van een bron.

Leuk voorbeeld: Wiki loves monuments, begonnen in NL als fotowedstrijd om zoveel mogelijk foto’s en informatie over monumenten te verzamelen, is nu in 40 landen. Gegevens worden beetje bij beetje ingelezen in wikidata
Wikidata bevat 14 miljoen (wetenschappelijke) artikelen, ook gebruikt bij de bronvermeldingen in Wikidata.
Interessant om eens te bekijken: https://query.wikidata.org Je kunt hier zelf queries maken met de gegevens uit Wikidata: bijv. Welke grote steden hebben een vrouwelijke burgemeester? Of: wie is vandaag jarig?
Wat is de grootste schilderijencollectie?
Je kunt niet zomaar alle datasets op wikidata zetten, Wikidata legt de nadruk op samenhang met andere data. Publiceer je data als open data op je website, dan wordt je gemakkelijker gevonden door wikidata-verzamelaars.



Ruben Verborgh (Universiteit van Gent) vertelde over “Linked data, blockchain en andere epische sagen”
In zijn (voor mij wat te) technische verhaal legde hij uit waarom het internet geherdecentraliseerd moet worden en welke rol blockchain-technologie hierbij kan spelen
Als je nu een like geeft bij een Facebook post, staat die like op de server van Facebook. In zijn ideale model staat die like op jouw eigen server. Hierdoor krijg je een hele andere economie, waarbij grote techbedrijven zoals Google en Facebook  minder macht hebben over data.
Verborgh pleit voor het gebruik van linked data, die pas waardevol zijn als je meerdere bronnen combineert (linkt), bijv. link tussen twee bronnen, bijv. website vogin en de locatie OBA)
Blockchain is het nieuwe XML, te pas en te onpas gebruikt. Het is een technologie die nu bij bitcoin wordt gebruikt, maar die je ook zou kunnen gebruiken om data/informatie versleuteld van de ene naar de andere server te krijgen. Door ‘decentralized consensus’.