lunedì, Luglio 13, 2020
20.2 C
Italia
Altro
    Italia
    cielo sereno
    20.2 ° C
    21.1 °
    18.9 °
    64 %
    1.6kmh
    0 %
    Mar
    24 °
    Mer
    27 °
    Gio
    28 °
    Ven
    28 °
    Sab
    26 °

    IA e scelte:dovrei colpire la madre o il bambino?

    Dovremmo trasmettere i valori umani sia all’IA che alla data science (Immagine: pexels / CC0 1.0)

    Certo, la ricerca sull’intelligenza artificiale (IA) è ancora ad uno stadio iniziale. Tuttavia gli esperti di tutto il mondo stanno già affrontando dilemmi di tipo etico a riguardo. La paura è che possa trasformarsi presto in una sorta di nemico dell’umanità. La soluzione, sono convinti, sia di trasmettere i valori sia all’IA che alla data science.

    Incorporare valori umani

    Abbiamo la tendenza a definire il successo nella data science in termini tecnici. Ad esempio valutiamo quanto sia migliore un’IA con rilevamento di schemi, con quanta rapidità un programma può processare dati, quanti database un algoritmo può gestire contemporaneamente e così via. Sebbene tali criteri siano importanti, c’ è qualcosa di molto più importante che dobbiamo valutare. Se vogliamo utilizzare L’IA o tecnologie simili nella nostra società non possiamo tralasciare i valori umani.

    “Perché i sistemi ML abbiano davvero successo, devono capire i valori umani. Oltre a questo, devono saper soppesare i nostri desideri e richieste contrastanti, capire quali risultati apprezziamo di più e agire di conseguenza” secondo Future of Life. Ad esempio, immagina una vettura automatizzata che sta per impattare contro due persone, una madre e il suo bambino di 9 anni. Entrambi sono in preda al panico, a pochi passi l’uno dall’altro. È inevitabile che l’auto colpirà uno dei due. Cosa dovrebbe decidere L’ IA? O piuttosto, quali valori dovrebbe usare per decidere come agire?

    IA

    L’IA deve capire la gerarchia di valori morali che noi umani abbiamo e agire di conseguenza. (Immagine: pexels/CC0 1.0)

    Dovrebbe salvare la madre perché contribuente e la sua morte comporterebbe una perdita economica? O colpire lei perché adulta, per cui il suo corpo avrebbe maggiori possibilità di sopravvivere all’incidente? Dovrebbe salvare il bambino come fanno gli esseri umani nel proteggere i più piccoli? O colpirlo perché sebbene sia deceduto, la madre potrebbe dare alla luce un altro bambino, mentre il contrario non è possibile?.

    Il numero di possibilità è infinito e l’IA deve scegliere tra una di esse. In che modo dovrebbe effettuarla dunque? L’intelligenza artificiale deve comprendere la gerarchia nei valori umani che possediamo. Quindi evolversi reagendo allo stesso modo di qualsiasi essere umano dotato d’integrità. Solo allora potremo creare un tipo di IA che assista l’umanità piuttosto che diventare una maledizione. Aziende e governi dovrebbero tenerlo a mente mentre investono nella data science, nelle tecnologie artificiali e così via.

    Il problema del pregiudizio

    Dovremmo inoltre trovare modi efficaci per affrontare i pregiudizi a riguardo. Questi si insinuano nel mondo dei sistemi di intelligenza artificiale prevalentemente perché sono gli essere umani a fornire i dati. La nostra tendenza ad essere di parte si riversa sui dati che raccogliamo e, infine, sull’IA stessa. È il pregiudizio più comune in ambito, quello “dell’osservatore”.

    IA

    Dovremmo trovare modi efficaci per affrontare i pregiudizi nell’Intelligenza Artificiale. (Immagine: pexels/CC0 1.)

    Avere pregiudizi è la semplice “tendenza a vedere ciò che ci aspettiamo, o ciò che vogliamo vedere. Quando un ricercatore studia un certo gruppo, si approccia all’esperimento con conoscenze precedenti e sentimenti soggettivi sullo stesso. In altre parole, opera secondo pregiudizi consci e inconsci”, secondo Towards Data Science.

    Per esempio, immagina uno studio sul QI. Un ricercatore potrebbe osservare che i bambini del terzo mondo hanno un quoziente intellettivo minore rispetto a quelli dei paesi industrializzati. Inserendo questi dati nell’intelligenza artificiale, il sistema dopo aver osservato le variabili per circa un decennio, potrebbe anche concludere che ciò è vero. L’IA potrebbe anche suggerire che i bambini migranti provenienti da paesi del terzo mondo vengano mandati in scuole separate. Che non possano inoltre mescolarsi con quelli dei paesi sviluppati.

    Tuttavia, tale differenza nel QI può essere spiegata diversamente. Può dipendere dalla mancanza di un’adeguata alimentazione ed educazione rispetto che da qualsiasi causa ereditaria. Dato che il ricercatore era vincolato nel credere alle migliori capacità degli uni piuttosto che gli altri, trascurava di cercare altre possibilità. Egli finiva per alimentare l’IA con il suo pregiudizio. Questo è un qualcosa che tutti gli sviluppatori dovrebbero cercare di evitare.

    Articolo in inglese: https://www.visiontimes.com/2020/03/26/ai-choices-should-i-hit-the-mother-or-the-child.html

    Ultima settimana

    Hong Kong: La Nuova Legge Di Pechino Soffoca Ogni Diritto

    È morta giovane, solo 23 anni, così bella, dinamica, amante delle libertà e della democrazia. Il 1° luglio 2020 era il...

    Falun Gong: storie di praticanti che soffrono in Cina

    Oggi in Cina la pratica spirituale chiamata Falun Gong è vietata e i suoi praticanti sono perseguitati. Introdotta nel 1992 dal...

    Istituti Confucio: Studenti Ne Chiedono La Chiusura

    I Democratici del Collegio d'America e il Comitato Nazionale Repubblicano del Collegio hanno recentemente firmato una lettera aperta. Chiedono di chiudere...

    Il Regno Unito Bandisce La Rete 5G Huawei

    Il Regno Unito bandirà la tecnologia Huawei dalla rete 5G britannica entro la fine dell’anno. E' quanto afferma il primo ministro...

    Pin It on Pinterest