Het kan af en toe hele families uiteen splijten: een naaste die in het ziekenhuis ligt en niet meer wakker lijkt te gaan wonen. Van de beademing af, of toch niet? Het is een enorm zwaar besluit dat je niemand toewenst te moeten maken, maar toch is er iemand die het moet doen. Wat als die iemand jijzelf bent, maar dan in AI-vorm?
Het kan interessant zijn als familieleden in ieder geval de digitale AI-kloon van hun naaste kunnen raadplegen. Of als doktoren dat kunnen doen, mocht er geen familie aanwezig zijn. Het is nog in geen enkel ziekenhuis mogelijk: het wordt ook nog niet getest, maar het zou natuurlijk wel een fijn hulpmiddel kunnen zijn. AI-onderzoeker Muhammad Aurangzeb Ahmad vindt in ieder geval van wel. Hij onderneemt momenteel de eerste stappen om zoiets binnen een Amerikaans ziekenhuis mogelijk te maken.
Het is nog heel pril, maar Ahmad werkt met zijn team voor de trauma-afdeling van de Universiteit van Washington. Zijn project rondom AI-klonen is nog in een conceptuele fase, waarbij hij vooral tegen het probleem aanloopt dat hij alleen weet of zijn AI-kloon het accuraat deed wanneer een patiënt overleefd en kan bevestigen dat de AI de juiste keuze maakte, zo vertelt hij aan ArsTechnica. De bedoeling is dat de AI-surrogaat tenminste in tweederde van de gevallen goed kan inschatten wat de wensen van de patiënt zijn.
Maar wat weet zo’n AI-kloon dan precies van de persoon waarvan het gekloond is? In het onderzoek wordt informatie meegenomen zoals de ernst van de situatie, de medische geschiedenis, eerdere medische keuzes en demografische informatie. Die informatie wordt gevoed aan een model dat werkt op basis van machine learning en zo kan er in de eerdere data worden gezien hoe goed het model werkt.
Voor zoiets wordt geïmplementeerd moet het echter eerst door meerdere fases gaan en worden patiënten ook meer betrokken. Misschien door het de AI toe te staan gesprekken te gebruiken die tussen die persoon en de dokter hebben plaatsgevonden. Bovendien kunnen familieleden ook extra context geven door bijvoorbeeld WhatsApp-gesprekken met de patiënt te delen met de AI.
Het beste zou natuurlijk zijn wanneer een patiënt door zijn leven heen met AI-systemen spreekt en dat kan worden gebruikt, al gaat dat uiteraard wel ver. Bovendien spelen er ook erg veel factoren mee wanneer er al dan niet moet worden besloten om de stekker eruit te trekken: medisch personeel ziet zelfs bij patiënten zelf dat ze er elke dag totaal anders over kunnen denken. Bovendien is AI in de medische wereld ook risicovol: er is bijvoorbeeld veel discussie over het gebruik van algoritmes om te bepalen wie er bijvoorbeeld geholpen wordt. Ook is er kritiek op AI-surrogaten die straks dan zouden worden meegenomen in het maken van beslissingen op leven en dood.
Vooral mensen die geen familieleden of vrienden hebben of niet zelf kunnen spreken, worden dan min of meer in handen gelegd van AI die misschien wel de verkeerde beslissing neemt. Dat kan het vertrouwen in de medische wereld schenden. De vraag is ook of het beëindigen van de beademing en andere beslissingen die iemands dood kunnen betekenen wel ethisch verantwoord zijn om bij een computer te leggen: moet zoiets niet altijd aan de mens blijven? Heeft AI niet heel veel blinde vlekken, uitwegen die het misschien niet kent?
Tegelijkertijd is het wel altijd de mensen die uiteindelijk besluit al dan niet naar de AI te luisteren: het is ook de mens die de beslissing uiteindelijk tot uitvoering brengt. Ahmad staat er uiteindelijk ook zo in: hij wil dat er altijd een mens bij betrokken is. Bovendien duurt het nog even voor het idee wat Ahmad heeft echt wordt geïmplementeerd: daar gaat waarschijnlijk wel tien jaar overheen, als het al gebeurt.