Maggio 2, 2024

TeleAlessandria

Informazioni sull'Italia. Seleziona gli argomenti di cui vuoi saperne di più

“60 Minutes” ha fatto un’affermazione piuttosto sgradevole su un chatbot AI di Google

“60 Minutes” ha fatto un’affermazione piuttosto sgradevole su un chatbot AI di Google

Da quando OpenAI ha lanciato ChatGPT nel mondo, abbiamo visto che ci sono volute persone a cui non crederesti. Alcune persone hanno affermato che i chatbot hanno un’agenda risvegliata. Il senatore degli Stati Uniti Chris Murphy ha twittato che ChatGPT “ha insegnato” chimica avanzata. Anche i giornalisti esperti di tecnologia hanno scritto articoli su come funziona Il chatbot si è innamorato di loro. Sembra che il mondo stia reagendo all’IA nello stesso modo in cui probabilmente hanno reagito gli uomini delle caverne quando hanno visto il fuoco per la prima volta: con totale confusione e balbettii incoerenti.

Uno degli esempi più recenti viene da 60 minuti, che ha lanciato la sua voce sul ring con un nuovo episodio incentrato sulle innovazioni nell’intelligenza artificiale andato in onda domenica sulla CBS. L’episodio presentava interviste con artisti del calibro di Sundar Pichai, CEO di Google, e includeva contenuti discutibili Reclami su uno dei grandi modelli linguistici (LLM) dell’azienda.

Il segmento riguarda il comportamento emergente, che descrive un effetto collaterale inaspettato di un sistema di intelligenza artificiale che non era necessariamente previsto dagli sviluppatori del modello. Abbiamo già visto emergere comportamenti emergenti in altri recenti progetti di intelligenza artificiale. Ad esempio, i ricercatori hanno recentemente utilizzato ChatGPT per creare personaggi digitali con obiettivi e background in uno studio pubblicato online la scorsa settimana. Notano che il sistema esegue vari comportamenti emergenti come la condivisione di nuove informazioni da un personaggio all’altro e persino la formazione di relazioni tra loro, qualcosa che gli autori non avevano inizialmente pianificato per il sistema.

Il comportamento emergente è certamente un argomento utile da discutere in un programma di notizie. dov’è il 60 minuti Il video prende una svolta, tuttavia, quando veniamo a conoscenza delle affermazioni secondo cui il chatbot di Google è stato effettivamente in grado di insegnare a se stesso una lingua che prima non conosceva dopo essere stato interrogato in quella lingua. “Ad esempio, un programma di intelligenza artificiale di Google si è adattato da solo dopo che gli era stato detto di farlo nella lingua del Bangladesh, che non era stato addestrato a conoscere”, ha detto nel video il reporter di CBS News Scott Pelley.

READ  La data del Galaxy Unpacked 2024 di Samsung, incentrato sull'intelligenza artificiale, è trapelata

Gli esperti di intelligenza artificiale affermano che si tratta di una laurea a tutti gli effetti. Non solo il robot non può imparare una lingua straniera che “non si è mai addestrato a conoscere”, ma non ha mai imparato da solo una nuova abilità. L’intera clip ha spinto i ricercatori e gli esperti di intelligenza artificiale a criticare l’inquadratura fuorviante del telegiornale su Twitter.

“Spero certamente che alcuni giornalisti esamineranno l’intero segmento @60Minute su Google Bard come caso di studio su come *non* coprire l’IA”, ha affermato Melanie Mitchell, ricercatrice e professoressa di intelligenza artificiale presso il Santa Fe Institute, ha scritto in un tweet.

“Smettila di pensare in modo magico alla tecnologia! Non è possibile per #AI rispondere in bengalese, a meno che i dati di addestramento non siano stati contaminati con il bengalese o addestrati in una lingua che si sovrappone al bengalese, come l’assamese, l’oriya o l’hindi”, ha detto la signora. Alex O. ricercatore presso il Massachusetts Institute of Technology, Aggiunto in un altro post.

Vale la pena notare 60 minuti La clip non diceva esattamente quale IA usassero. Un portavoce della CBS ha detto a The Daily Beast che il segmento non era una discussione su Bard, ma un programma separato sull’intelligenza artificiale. Tuttavia, il motivo per cui questa parte è così frustrante per questi esperti è che ignora e gioca con la realtà di ciò che l’IA generativa può effettivamente fare. Non può “insegnare” a se stesso una lingua se non ha accesso ad essa in primo luogo. Sarebbe come cercare di insegnarti il ​​mandarino ma l’hai sentito solo dopo che qualcuno ti ha chiesto il mandarino una volta.

Dopotutto, il linguaggio è incredibilmente complesso, con sfumature e regole che richiedono un incredibile grado di contesto per essere compreso e comunicato. Non c’è modo nemmeno per il LLM più avanzato di gestire e apprendere tutto ciò con pochi suggerimenti.

Inoltre, il software AI potrebbe essere già stato addestrato per conoscere il bengalese, la lingua dominante del Bangladesh. Margaret Mitchell (nessuna parentela), ricercatrice nello Startup Lab di AT HuggingFace e precedentemente in Google, lo ha spiegato in Argomento del tweet Fai una discussione sul perché 60 minuti Probabilmente è stato un errore.

READ  "Non voglio essere una peste."

Mitchell ha notato che Bard, il chatbot pubblicamente disponibile di Google recentemente introdotto, include il lavoro di una prima iterazione del suo modello chiamato PaLM. In una dimostrazione del 2022, Google ha dimostrato che PaLM può comunicare e rispondere alle richieste in bengalese. IL Carta dietro PaLM Ha rivelato in una scheda tecnica che il modello è stato effettivamente addestrato sulla lingua con circa 194 milioni di simboli nell’alfabeto bengalese.

Sebbene non sappiamo quale fosse il misterioso programma di intelligenza artificiale separato, probabilmente si basava sullo stesso lavoro di PaLM, il che spiegherebbe la presenza del bengalese nel set di dati.

Non è chiaro perché Pichai, il CEO di Google, si sia seduto per l’intervista e abbia permesso che queste accuse continuassero incontrastate. (Google non ha risposto alle richieste di commento.) Da quando l’episodio è andato in onda, è rimasto in silenzio nonostante gli esperti abbiano sottolineato le affermazioni fuorvianti e false fatte nella clip. Su Twitter Margaret Mitchell Proposta La ragione alla base di ciò potrebbe essere una combinazione di leader di Google che non sanno come funzionano i loro prodotti e anche che consente la diffusione di messaggi scadenti per affrontare l’attuale clamore attorno all’IA generativa.

“Io sospetto [Google executives] Non capisco letteralmente come funzioni, Mitchell cinguettio. “Quello che ho scritto sopra è molto probabilmente una novità per loro. E sono motivati ​​a non capire (PARLA CON GLI OCCHI A QUESTA SCHEDA TECNICA!!).”

Anche la seconda metà del video può essere vista come problematica in quanto Pichai e Billy discutono di un racconto creato da Bard che “suonava molto umano”, lasciando i due uomini un po’ scossi.

La verità è che questi prodotti non sono magici. Non sono in grado di essere “umani” perché non sono umani. Sono predittori di testo come quelli sul tuo telefono, addestrati a trovare le parole e le frasi più probabili dopo una serie di parole in frasi. Dire che esistono potrebbe dare loro un livello di potere che potrebbe essere incredibilmente pericoloso.

READ  Gurman di Bloomberg rivela le modifiche salvate su iPhone 14 Pro

Dopotutto, gli utenti possono utilizzare questi sistemi di intelligenza artificiale generativa per fare cose come diffondere disinformazione. Abbiamo già visto questo manipolare le sembianze delle persone e persino le loro voci.

Anche un chatbot da solo può causare danni se finisce per produrre risultati distorti, cosa che abbiamo già visto con artisti del calibro di ChatGPT e Bard. Conoscendo la propensione di questi chatbot ad allucinare e fabbricare risultati, potrebbero essere in grado di diffondere informazioni errate a utenti ignari.

Anche la ricerca lo conferma. Uno studio recente pubblicato in Rapporti scientifici Ha scoperto che le risposte umane alle domande etiche potrebbero essere facilmente influenzate dalle argomentazioni avanzate da ChatGPT e persino che gli utenti hanno notevolmente sottovalutato quanto fossero influenzati dai robot.

Affermazioni fuorvianti su 60 minuti In realtà è solo un sintomo della maggiore necessità di alfabetizzazione digitale in un momento in cui ne abbiamo più bisogno. Molti esperti di intelligenza artificiale affermano che ora, più che mai, è il momento in cui le persone devono essere consapevoli di ciò che l’IA può e non può fare. Questi fatti di base sulla robotica devono essere comunicati in modo efficace anche al grande pubblico.

Ciò significa che le persone con le piattaforme più grandi e le voci più forti (ovvero i media, i politici e gli amministratori delegati di Big Tech) hanno la maggiore responsabilità nel garantire un futuro di IA più sicuro e più istruito. Se non lo facciamo, potremmo finire come gli uomini delle caverne di cui sopra, giocando con la magia del fuoco e bruciandoci nel processo.

Nota del redattore: una versione precedente di questa storia diceva che l’IA discussa nel segmento 60 Minutes era Bard quando era un’IA separata di Google.