< Terug naar vorige pagina

Project

Transparantie van AI in de zorg in evenwicht brengen met veiligheid en kwaliteit. Een juridisch en technisch perspectief (OZRIFTM4)

Het voorgestelde onderzoek zal zich richten op het analyseren van het huidige juridische kader van de transparantie van AI in de gezondheidszorg en het vinden van de technisch haalbare manier om dit te bereiken. Hoewel de ondoorzichtigheidsuitdaging van AI verband houdt met de ‘black-box'-aard van AI-algoritmen, zal de oplossing worden ontwikkeld in samenwerking tussen datawetenschappers en juridische onderzoekers. Daarvoor zal het voorgestelde project wetenschappelijke centra uit verschillende domeinen betrekken: Law, Science, Technology and Society Research Group (LSTS) van de Vrije Universiteit Brussel en het ETIS Research Laboratory (ETIS Lab) van CY Cergy Paris University. De modellen om AI uit te leggen (zowel ex-ante als ex-post) die ontwikkeld en getest zijn in het ETIS-lab zullen worden verkend en beschreven in de context van transparantie als juridisch concept.
Verder zullen het transparantievraagstuk en de geïdentificeerde maatregelen om dit te bereiken (zowel conform vanuit juridisch als technisch oogpunt) worden onderzocht in de context van de gezondheidszorg. Het onderzoek is gebaseerd op de hypothese dat de transparantie van AI in de zorg belangrijk is, maar geen absolute vereiste en altijd in evenwicht moet zijn met de veiligheid en kwaliteit (nauwkeurigheid). Volgens datawetenschappers zijn de meest geavanceerde algoritmen vaak het meest nauwkeurig en tegelijkertijd het minst verklaarbaar. De veiligheid en prestaties van AI kunnen dus de afweging zijn van de volledige transparantie ervan. Bovendien, gezondheidszorg
zelf is het domein waar het hoogste niveau van transparantie nauwelijks haalbaar is. Elke behandeling is altijd een complex, risicovol en onvoorspelbaar proces. Hoewel transparantie een cruciaal element is voor het opbouwen van vertrouwen in het gebruik van AI in de gezondheidszorg, zou het eisen van volledige transparantie een te grote last op AI leggen, waardoor de voordelen ervan zouden kunnen verminderen. Om het juiste niveau van AI's transparantie in evenwicht te brengen met de veiligheid en kwaliteit, zullen de relevante juridische bronnen en wetenschappelijke artikelen worden beschreven, geclassificeerd, vergeleken en geëvalueerd. Op basis daarvan zal de oplossing worden voorgesteld die de transparantie van AI in evenwicht brengt met zijn veiligheid en prestaties, en zullen aanbevelingen worden gedaan om de wet te verbeteren.

Datum:1 okt 2020 →  Heden
Trefwoorden:Artificial intelligence, transparency, healthcare, explainability, safety, quality
Disciplines:Artificiële intelligentie niet elders geclassificeerd