Intelligenza artificiale

Quando gli algoritmi decidono per noi: opportunità e rischi dell’intelligenza artificiale

Robotic Hand Assisting Person For Signing Document

L’intelligenza artificiale (IA) è in voga sin dagli anni Sessanta. L’avvento della tecnologia di deep learning ha poi contribuito a concretizzare le aspettative relative agli algoritmi e ai cosiddetti sistemi intelligenti. Oggi la tecnologia degli algoritmi è per lo più in mano a grandi gruppi americani e in genere accessibile attraverso i servizi da loro forniti.
Lo studio interdisciplinare di TA-SWISS valuta le opportunità e i rischi dell’IA prendendo in esame cinque ambiti principali: il mondo del lavoro, l’istruzione, il consumo, l’amministrazione e i media. Affronta trasversalmente gli aspetti tecnologici, legali ed etici dell’argomento e i rispettivi effetti nei cinque campi di applicazione specificati.

Opportunità e rischi

L’intelligenza artificiale è un importante motore del cambiamento digitale e viene utilizzata in un numero crescente di settori. La vastità del suo campo di applicazione rende impossibile una valutazione generale delle opportunità e dei rischi dell’IA di per sé; una «legge sull’IA» generalizzata non appare quindi una soluzione appropriata alla materia. I problemi e gli sviluppi indesiderati prodotti dall’IA dovrebbero invece essere regolamentati dalle leggi e dai regolamenti esistenti o, se necessario, con provvedimenti su base volontaria.
I sistemi di IA sono in grado di compiere molte operazioni più in fretta e spesso con maggiore precisione degli esseri umani, che potrebbero quindi aiutare a svolgere varie attività complesse con un’efficienza molto superiore all’attuale. Spesso i sistemi di IA consentono di adattare meglio servizi e offerte alle esigenze e alle capacità dei singoli. Uno dei principali punti di forza dell’IA consiste proprio nella personalizzazione delle offerte.
Per raggiungere le capacità richieste, molti sistemi di IA devono essere addestrati con enormi volumi di dati; quest’immenso fabbisogno di informazioni rischia di minare alla base i concetti di privacy e protezione dei dati. Inoltre se i set di dati su cui si basa l’IA sono fallaci, ne conseguono risultati sbagliati. A ciò si somma il problema dei dati non equilibrati, che generano risultati matematicamente corretti ma viziati nei contenuti e che, in determinate circostanze, possono penalizzare in modo sistematico determinati gruppi di persone. Inoltre i sistemi di autoapprendimento dell’IA continuano a svilupparsi in modo pressoché autonomo producendo a volte risultati opachi e incomprensibili non solo per chi li ha creati, ma anche e soprattutto per le persone interessate.

Raccomandazioni

Se si utilizzano sistemi di IA bisognerebbe comunicarlo in modo chiaro e riconoscibile, affinché gli interessati sappiano che stanno interagendo con un programma e non con un essere umano.
Non è opportuno affidare a un sistema di IA decisioni importanti che riguardano gli individui senza una preventiva, attenta valutazione dei vantaggi e degli svantaggi. Se si tratta di questioni personali rilevanti, i risultati ottenuti del sistema devono essere poi verificati e motivati da un operatore umano.
L’uso dell’IA ha conseguenze che vanno ben oltre le implicazioni tecniche. Chiunque sviluppi, utilizzi o rielabori i risultati dell’IA dovrebbe quindi disporre anche di nozioni di etica e diritto, oltre a essere desideroso e capace di impegnarsi in una cooperazione interdisciplinare con rappresentanti di altri settori scientifici

Link e download

Organizzazione

Durata del progetto

Da aprile 2018 a marzo 2020

Responsabili di progetto

  • PD Dr. Markus Christen, Digital Society Initiative, Università di Zurigo
  • Dr. Clemens Mader, Dipartimento Technology and Society, EMPA
  • Johann Čas, Institute of Technology Assessment, Accademia austriaca delle scienze

Gruppo d'accompagnamento

  • Dr. Jean Hennebert, Präsident der Begleitgruppe, Informatikdepartement, Universität Freiburg, Mitglied des Leitungsausschusses von TA-SWISS
  • Benjamin Bosshard, Eidgenössische Kommission für Kinder- und Jugendfragen
  • Sabine Brenner, Geschäftsstelle Digitale Schweiz, Bundesamt für Kommunikation BAKOM
  • Dr. Christian Busch, Staatssekretariat für Bildung, Forschung und Innovation SBFI
  • Dr. Christine Clavien, Institut für Ethik, Geschichte und Geisteswissenschaften, Universität Genf
  • Daniel Egloff, Staatssekretariat für Bildung, Forschung und Innovation SBFI
  • Andy Fitze, SwissCognitive – The Global AI Hub
  • Matthias Holenstein, Stiftung Risiko-Dialog
  • Dr. Marjory Hunt, Schweizerischer Nationalfonds SNF
  • Manuel Kugler, Schweizerische Akademie der Technischen Wissenschaften SATW
  • Thomas Müller, Redaktor, Schweizer Radio SRF, Mitglied des Leitungsausschusses von TA-SWISS
  • Katharina Prelicz-Huber, Gewerkschaft VPOD, Mitglied des Leitungsausschusses von TA-SWISS
  • Prof. Ursula Sury, Hochschule Luzern HSLU
  • Dr. Stefan Vannoni, Cemsuisse, Mitglied des Leitungsausschusses von TA-SWISS

Contatto

TA-SWISS
info@ta-swiss.ch