Le minacce del New York Times, che potrebbe denunciare ChatGPT per aver violato la normativa sui copyright, sono la punta di un iceberg di problemi che l’intelligenza artificiale (IA) deve risolvere. Il boom della nuova tecnologia e delle società a essa legate (per esempio Nvidia che stasera pubblicherà i risultati trimestrali) potrebbe pertanto rallentare. I primi segnali della seconda fase della vita dell’IA generativa si ritrovano anche nei numeri diffusi da Similarweb sull’utilizzo di ChatGPT.
Nel mese di giugno il traffico da smartphone e desktop è diminuito del 9,7%, la prima contrazione da quando il bot di IA generativa è stato lanciato. All’eccitazione iniziale per la potenzialità della nuova tecnologia è seguita un’analisi più approfondita dei rischi e delle imperfezioni. In particolare sono 6 i problemi che l’IA deve ancora affrontare e risolvere:
- Privacy
- Sicurezza
- Copyright
- Affidabilità
- Discriminazioni
- Sostituzione lavorativa
Privacy: Italia in prima fila contro l’IA
L’Italia è stato il primo paese a dire no a ChatGPT, fermandone le operazioni per un periodo di alcune settimane a causa dei rischi per la privacy degli utenti. Ad aprile il Garante della privacy ha sospeso il bot di intelligenza artificiale di OpenAI finanziato da Microsoft e ha richiesto alcune modifiche nel suo modello per tutelare gli utenti italiani: limitazioni nell’uso dell’app per i minori, politiche di privacy più visibili, possibilità di auto escludersi dal fornire dati di ricerca per il training dei bot di IA. Ora ChatGPT è di nuovo disponibile in Italia ma le richieste del Garante riguardano solo gli utenti italiani.
Sicurezza: il caso Samsung
Anche le aziende iniziano a cautelarsi contro i difetti dell’IA. Samsung è solo una delle aziende che ha vietato l’uso interno di ChatGPT ai suoi dipendenti. Anche numerose big bank USA hanno regolamentato o bloccato l’accesso. Nel particolare caso di Samsung, la società coreana ha accertato tre fughe di dati importanti nel giro di tre settimane. In un caso, un dipendente avrebbe chiesto a ChatGPT di verificare la presenza di errori in un codice sorgente di un programma, inserendo così nel mare magnum delle informazioni da cui pesca il bot il programma stesso.
Anche per il singolo utilizzatore le minacce alla sicurezza sono aumentate. La cessione di informazioni personali durante le interazioni con l’applicazione può essere sfruttata a loro vantaggio da pirati informatici.
Copyright: New York Times vs ChatGPT
L’IA generativa trova il materiale di cui nutrirsi e con cui accrescere la sua potenza nelle migliaia di miliardi di informazioni messe in rete ogni secondo. Informazioni che, tuttavia, hanno spesso un proprietario che vanta su di esse un diritto di copyright. Il tema del copyright era già caldo ai tempi di Google. Tuttavia, mentre il numero uno dei motori di ricerca proponeva dei link alla pagina del produttore del contenuto, ChatGPT propone una risposta completa alle domande degli utenti, senza necessità di visitare il sito dell’autore il quale non può quindi monetizzare il suo lavoro.
Secondo indiscrezioni rilasciate dal Washington Post, il New York Times potrebbe portare in causa ChatGPT per violazione della normativa sul copyright. Nello stesso modo potrebbero agire tutti i produttori di contenuti che finiscono nel calderone che contribuisce a rafforzare i muscoli dell’intelligenza artificiale.
Affidabilità: così Bard, l’IA di Alphabet, è finita al tappeto
Tutti ricordano quanto accaduto il giorno della presentazione di Bard, il bot di IA generativa di Alphabet. Una risposta sbagliata sulla prima foto storica di un pianeta esterno al sistema solare causo un crollo delle azioni della casa madre di Google. In generale, essendo l’IA “allenata” dalle informazioni immesse in rete dagli utilizzatori, il rischio di incorrere negli stessi errori dei primi esiste. Inoltre bisogna tenere conto della limitazione di ChatGPT che fa riferimento alle informazioni utilizzate per allenarlo, le quali arrivano solo fino al 2021 come specificato dallo stesso bot.
L’IA impara i vizi dell’umanità
Si tratta di un altro problema legato alle informazioni che l’IA utilizza per accrescere la sua “sapienza”. Online si trovano contenuti di ogni genere, spesso offensivi e discriminatori verso singoli o gruppi. È capitato così di ricevere risposte razziste o con contenuti negativi. Anche questo è un problema noto agli esperti di IA che hanno iniziato a richiedere agli utenti un feedback sui contenuti ritenuti offensivi, inadatti o errati.
Il futuro del lavoro
Il tema non è certo nuovo. Ogni volta che una nuova tecnologia si diffonde cresce il rischio che alcuni lavori vengano trasferiti dall’uomo alla macchina. Secondo il Future of Jobs Report del World Economic Forum, l’IA sostituirà 85 milioni di posti di lavoro entro il 2025 in tutto il mondo.
La cifra fa rabbrividire. Lo stesso report afferma che nello stesso arco di tempo verranno creati 97 milioni di nuovi posti di lavoro. Il problema, tuttavia, sta nella fase di passaggio nel quali i vecchi lavori verranno spazzati via costringendo le persone che li svolgevano a trovare altre strade.