Dovremmo trasmettere i valori umani sia all’IA che alla data science (Immagine: pexels / CC0 1.0)

Certo, la ricerca sull’intelligenza artificiale (IA) è ancora ad uno stadio iniziale. Tuttavia gli esperti di tutto il mondo stanno già affrontando dilemmi di tipo etico a riguardo. La paura è che possa trasformarsi presto in una sorta di nemico dell’umanità. La soluzione, sono convinti, sia di trasmettere i valori sia all’IA che alla data science.

Incorporare valori umani

Abbiamo la tendenza a definire il successo nella data science in termini tecnici. Ad esempio valutiamo quanto sia migliore un’IA con rilevamento di schemi, con quanta rapidità un programma può processare dati, quanti database un algoritmo può gestire contemporaneamente e così via. Sebbene tali criteri siano importanti, c’ è qualcosa di molto più importante che dobbiamo valutare. Se vogliamo utilizzare L’IA o tecnologie simili nella nostra società non possiamo tralasciare i valori umani.

“Perché i sistemi ML abbiano davvero successo, devono capire i valori umani. Oltre a questo, devono saper soppesare i nostri desideri e richieste contrastanti, capire quali risultati apprezziamo di più e agire di conseguenza” secondo Future of Life. Ad esempio, immagina una vettura automatizzata che sta per impattare contro due persone, una madre e il suo bambino di 9 anni. Entrambi sono in preda al panico, a pochi passi l’uno dall’altro. È inevitabile che l’auto colpirà uno dei due. Cosa dovrebbe decidere L’ IA? O piuttosto, quali valori dovrebbe usare per decidere come agire?

IA

L’IA deve capire la gerarchia di valori morali che noi umani abbiamo e agire di conseguenza. (Immagine: pexels/CC0 1.0)

Dovrebbe salvare la madre perché contribuente e la sua morte comporterebbe una perdita economica? O colpire lei perché adulta, per cui il suo corpo avrebbe maggiori possibilità di sopravvivere all’incidente? Dovrebbe salvare il bambino come fanno gli esseri umani nel proteggere i più piccoli? O colpirlo perché sebbene sia deceduto, la madre potrebbe dare alla luce un altro bambino, mentre il contrario non è possibile?.

Il numero di possibilità è infinito e l’IA deve scegliere tra una di esse. In che modo dovrebbe effettuarla dunque? L’intelligenza artificiale deve comprendere la gerarchia nei valori umani che possediamo. Quindi evolversi reagendo allo stesso modo di qualsiasi essere umano dotato d’integrità. Solo allora potremo creare un tipo di IA che assista l’umanità piuttosto che diventare una maledizione. Aziende e governi dovrebbero tenerlo a mente mentre investono nella data science, nelle tecnologie artificiali e così via.

Il problema del pregiudizio

Dovremmo inoltre trovare modi efficaci per affrontare i pregiudizi a riguardo. Questi si insinuano nel mondo dei sistemi di intelligenza artificiale prevalentemente perché sono gli essere umani a fornire i dati. La nostra tendenza ad essere di parte si riversa sui dati che raccogliamo e, infine, sull’IA stessa. È il pregiudizio più comune in ambito, quello “dell’osservatore”.

IA

Dovremmo trovare modi efficaci per affrontare i pregiudizi nell’Intelligenza Artificiale. (Immagine: pexels/CC0 1.)

Avere pregiudizi è la semplice “tendenza a vedere ciò che ci aspettiamo, o ciò che vogliamo vedere. Quando un ricercatore studia un certo gruppo, si approccia all’esperimento con conoscenze precedenti e sentimenti soggettivi sullo stesso. In altre parole, opera secondo pregiudizi consci e inconsci”, secondo Towards Data Science.

Per esempio, immagina uno studio sul QI. Un ricercatore potrebbe osservare che i bambini del terzo mondo hanno un quoziente intellettivo minore rispetto a quelli dei paesi industrializzati. Inserendo questi dati nell’intelligenza artificiale, il sistema dopo aver osservato le variabili per circa un decennio, potrebbe anche concludere che ciò è vero. L’IA potrebbe anche suggerire che i bambini migranti provenienti da paesi del terzo mondo vengano mandati in scuole separate. Che non possano inoltre mescolarsi con quelli dei paesi sviluppati.

Tuttavia, tale differenza nel QI può essere spiegata diversamente. Può dipendere dalla mancanza di un’adeguata alimentazione ed educazione rispetto che da qualsiasi causa ereditaria. Dato che il ricercatore era vincolato nel credere alle migliori capacità degli uni piuttosto che gli altri, trascurava di cercare altre possibilità. Egli finiva per alimentare l’IA con il suo pregiudizio. Questo è un qualcosa che tutti gli sviluppatori dovrebbero cercare di evitare.

Articolo in inglese: https://www.visiontimes.com/2020/03/26/ai-choices-should-i-hit-the-mother-or-the-child.html