Folosirea Inteligentei Artificiale in domeniul medical a adus cu sine multe beneficii, insa este marcata si de esecuri, din pricina discriminarilor si a lipsei de raspundere.
In ultimul deceniu, odata cu patrunderea tot mai evidenta in vietile oamenilor, sistemele de Inteligenta Artificiala s-au confruntat adesea si cu evaluari necesare. Algoritmii care stau la baza platformelor de social media pot fi utili, insa asa cum s-a putut constata la alegerile din SUA din 2016 sau in urma dezinformarii din perioada COVID-19, ei pot fi si dezastruosi.
Acelasi lucru se poate spune si despre utilizarea sistemelor AI in politie. Recunoasterea faciala si “politia predictiva” sunt adesea instrumente de supraveghere si oprimare, nu de protectie si justitie.
Insa inteligenta artificiala patrunde si intr-un alt sector al vietii noastre in care exista o doza mica de responsabilitate si chiar o doza mica de constientizare: asistenta medicala. Iar in acest caz, ea poate fi literalmente o chestiune de viata si de moarte.
Patrunderea Inteligentei Artificiale in domeniul sanatatii a fost rapida si – ca sa fie clar din start – a adus multe beneficii. Inteligenta Artificiala folosita in spitale ii poate ajuta pe medici sa anticipeze afectiunile, sa diagnosticheze boli si chiar sa prescrie tratamente. Folosita in mod responsabil si transparent, AI poate fi o binefacere, salvand vieti si incurajand cercetarea. Dar, la fel ca inteligenta artificiala de pe platformele de social media si din sistemul de justitie, si in medicina ea poate avea efect de bumerang. Iar esecurile sale sunt legate adesea de doua mari probleme: discriminarea si lipsa de raspundere.
Sa ne gandim de pilda la inteligenta artificiala pentru diagnosticare folosita pentru a depista boli de piele precum melanomul si care are la baza antrenarea de seturi de date din imagini fotografice cu esantioane de piele. Si nu toate categoriile de culori de piele sunt reprezentate in aceste seturi de date! Aceasta discriminare are consecinte letale: diagnosticarile pentru cancerul de piele prin AI pot fi mai putin precise pentru persoanele cu o piele mai inchisa la culoare.
De asemenea, sistemele de Inteligenta Artificiala folosite pentru a aloca pacientilor paturi in spitale s-a dovedit a prioritiza pacientii albi fata de cei de culoare.
Discriminarea persoanelor de culoare in sistemul de sanatate are o istorie indelungata si tragica, iar AI nu face acum decat sa perpetueze o needreptate extrem de veche.
Discriminarile existente in sistemele de inteligenta artificiala vocala – care completeaza adesea inteligenta artificiala din domeniul sanitar – sunt si ele o problema. Pe tot parcursul pandemiei, milioane de oameni si angajati din domeniul sanatatii s-au bazat pe tehnologia vocala pentru a primi informatii actualizate despre COVID-19. Insa pentru alte milioane de oameni, tehnologia vocala nu a fost o optiune. Asistentii vocali care au la baza inteligenta artificiala – cum ar fi Alexa de la Amazon, Siri de la Apple si Google Home – nu recunosc nici macar o singura limba africana nativa. Ceea ce inseamna ca milioane de oameni care vorbesc diverse limbi africane nu pot folosi tehnologia vocala pentru a accesa actualizari vitale despre COVID-19.
Responsabilitatea cu privire la sistemele AI folosite in domeniul medical este o alta problema. Aceste sisteme patrund in cele mai intime zone ale vietii noastre, cum ar fi sanatatea mintala si starea de bine. Pe piata exista o multime de aplicatii din sfera sanatatii mintale – multe pe baza de inteligenta artificiala – care pretind ca ajuta oamenii sa gestioneze probleme precum depresia, gandurile suicidale si tulburarea de stres post-traumatic. Insa conform unui raport recent al celor de la Mozilla, aceste aplicatii si tehnologia AI pe care o folosesc partajeaza in mod liber datele private ale oamenilor, pentru profit. Astfel, din cele 32 de aplicatii analizate, 28 au primit label-ul de avertizare Mozilla “Privacy Not Included”. Asa cum bine spune un cercetator, aceste aplicatii „functioneaza ca niste masini de absorbit date, sub o aparenta de aplicatie pentru sanatatea mentala. Cu alte cuvinte: un lup in haine de oaie”.
Responsabilitatea – sau lipsa acesteia – este si ea o realitate, deoarece instrumentele de inteligenta artificiala din domeniul sanatatii sunt implementate in comunitatile rurale din India de catre companiile Big Tech in colaborare cu spitalele, intr-un efort aparent de a acoperi lipsa de medici. Aceste instrumente pot oferi ajutor, insa modul in care sunt implementate este adesea infiorator. Cercetarile efectuate de Radhika Radhakrishnan au aratat ca aceste sisteme de inteligenta artificiala functioneaza in moduri opace, oferind pacientilor putine informatii despre motivul pentru care sunt colectate anumite date despre sanatate sau despre modul in care sunt colectate ele. Iar adesea sunt implementate cu foarte putina testare sau monitorizare, sau chiar deloc.
O analiza la scara larga asupra functionarii Inteligentei Artificiale in asistenta medicala este asteptata de mult. Din fericire, un numar tot mai mare de specialisti in tehnologie si militanti abordeaza probleme precum discriminarile letale in seturile de date AI.
Avery Smith, un afro-american din Baltimore care si-a pierdut sotia din cauza melanomului, este creatorul Melalogic, o resursa si un sistem AI in curs de dezvoltare conceput special pentru pacientii cu piele inchisa la culoare.
De asemenea, cercetarile lui Jen Caltrider de la Mozilla, care s-a ocupat si de analiza aplicatiilor de sanatate mentala – au determinat sase aplicatii sa-si consolideze politicile de confidentialitate si securitate, in timp ce – tot la Mozilla – Remy Muhire construieste tehnologii de voce care pot intelege limbi precum kinyarwanda.
Bineinteles ca doar aceste cazuri izolate nu sunt suficiente. Intr-o lume in care Inteligenta Artificiala si medicina se impletesc din ce in ce mai mult, e obligatoriu ca societatea la o scara mai ampla, nu doar Big Tech, sa se lupte cu potentialul sau si cu problemele sale si sa se asigure ca este implementata in final in moduri care sa poata ajuta omenirea, nu sa ii faca rau.