Aprile 29, 2024

TeleAlessandria

Informazioni sull'Italia. Seleziona gli argomenti di cui vuoi saperne di più

Perché i chatbot AI raccontano bugie e si comportano in modo strano? Mi guardo allo specchio.

Perché i chatbot AI raccontano bugie e si comportano in modo strano?  Mi guardo allo specchio.

Quando questo mese Microsoft ha aggiunto un chatbot al suo motore di ricerca Bing, la gente ha notato che forniva tutti i tipi di informazioni false su Gap, la vita notturna messicana e la cantante Billie Eilish.

Quindi, quando i giornalisti e altri primi tester hanno avuto lunghe conversazioni con il bot di intelligenza artificiale di Microsoft, è sceso in un comportamento burbero, intimidatorio e allarmante.

Nei giorni in cui il comportamento del bot Bing è diventato una sensazione mondiale, le persone hanno faticato a capire la stranezza di questa nuova creazione. Troppo spesso, gli scienziati hanno affermato che gli umani meritano molta colpa.

Ma c’è ancora un po’ di mistero su cosa può fare il nuovo chatbot e perché lo farà. La sua complessità rende difficile sezionare e persino prevedere, e i ricercatori lo vedono attraverso una lente filosofica così come il codice rigido dell’informatica.

Come qualsiasi altro studente, un sistema di intelligenza artificiale può apprendere informazioni errate da fonti errate. È strano questo comportamento? Potrebbe essere il riflesso distorto di un chatbot delle parole e delle intenzioni delle persone che lo utilizzano, ha affermato Terry Sejnowski, neuroscienziato, psicologo e informatico che ha contribuito a gettare le basi intellettuali e tecniche per la moderna intelligenza artificiale.

Questo accade quando vai in profondità in questi sistemi. Documento di ricerca su questo fenomeno Questo mese sulla rivista scientifica Neural Computation. “Qualunque cosa tu stia cercando – qualunque cosa tu voglia – te la forniranno.”

Anche Google esibire nuovo chatbot, Bard, questo mese, ma scienziati e giornalisti si sono presto resi conto che stava scrivendo sciocchezze sul James Webb Space Telescope. OpenAI, una startup di San Francisco, ha dato il via al boom dei chatbot a novembre quando ha introdotto ChatGPT, che non sempre dice la verità.

I nuovi chatbot sono alimentati da una tecnologia che gli scienziati chiamano Large Language Model, o LLM.Questi sistemi apprendono analizzando grandi quantità di testo digitale estratto da Internet, che include un sacco di materiale screditato, parziale e altro materiale tossico. Inoltre, lo script da cui i chatbot apprendono sta diventando un po’ obsoleto, perché devono passare mesi ad analizzarlo prima che il pubblico possa usarlo.

READ  Rinnovata preoccupazione per il remake di Star Wars: Knights of the Old Republic poiché trailer e tweet vengono cancellati

Mentre analizza questo mare di informazioni buone e cattive online, il LLM impara a fare una cosa particolare: indovinare la parola successiva in una stringa di parole.

Funziona come una versione gigante della tecnologia di completamento automatico che suggerisce la parola successiva mentre digiti un’e-mail o un messaggio istantaneo sul tuo smartphone. Guardando la sequenza “Tom Cruise è ____”, si potrebbe indovinare “attore”.

Quando chatti con un chatbot, il bot non si limita a fare affidamento su tutto ciò che ha appreso da Internet. Si basa su tutto ciò che gli hai detto e su tutto ciò che ha detto. Non si tratta solo di indovinare la parola successiva in una frase. Sta indovinando la parola successiva nel lungo pezzo di testo che include sia le tue parole che le sue.

Più lunga è la conversazione, più l’utente influenzerà inavvertitamente ciò che dice il chatbot. Se vuoi che si arrabbi, si arrabbia, ha detto il dottor Sejnowski. Se lo convinci a essere inquietante, diventa inquietante.

L’allarmante contraccolpo sul bizzarro comportamento del chatbot di Microsoft ha messo in ombra un punto importante: il chatbot non ha personalità. Fornisce risultati immediati attraverso un algoritmo informatico incredibilmente complesso.

Sembra che Microsoft stia riducendo i comportamenti più strani quando ha posto un limite alla durata delle discussioni con il chatbot di Bing. Era come imparare da un pilota di auto collaudatore che andare troppo veloce per troppo tempo avrebbe fatto bruciare il motore. Anche il partner Microsoft OpenAI e Google stanno esplorando modi per controllare il comportamento dei loro bot.

Microsoft e OpenAI hanno deciso che l’unico modo per rilevare cosa avrebbero fatto i chatbot nel mondo reale era lasciarli perdere e farli rotolare quando se ne andavano. Pensano che il loro grande esperimento pubblico valga il rischio.

Il dottor Sejnowski ha paragonato il comportamento del chatbot di Microsoft allo Specchio delle Brame, un misterioso artefatto nei romanzi di Harry Potter di J.K. Rowling e nei numerosi film basati sul suo mondo creativo di giovani maghi.

“Maverick” è “desiderio” scritto al contrario. Quando le persone scoprono lo specchio, sembra fornire verità e comprensione. Ma lei no. Mostra i desideri profondi di chiunque lo guardi. E alcune persone impazziscono se fissano troppo a lungo.

“Poiché l’essere umano e il LLM si rispecchiano a vicenda, nel tempo tenderanno verso uno stato concettuale comune”, ha affermato il dott. Sejnowski.

Non sorprende, ha detto, che i giornalisti abbiano iniziato a vedere comportamenti inquietanti nel chatbot di Bing. Consapevolmente o inconsciamente, stavano spingendo il sistema in una direzione scomoda. Mentre i chatbot prendono le nostre parole e le riflettono su di noi, possono rafforzare e amplificare le nostre convinzioni e convincerci a credere a ciò che ci dicono.

Il dottor Sejnowski faceva parte di un piccolo gruppo di ricercatori alla fine degli anni ’70 e all’inizio degli anni ’80 che iniziò a esplorare seriamente un tipo di intelligenza artificiale chiamata rete neurale, che sta guidando i chatbot di oggi.

Una rete neurale è un sistema matematico che apprende abilità analizzando dati numerici. Questa è la stessa tecnologia che consente a Siri e Alexa di riconoscere ciò che dici.

Intorno al 2018, i ricercatori di aziende come Google e OpenAI hanno iniziato a costruire reti neurali che imparavano da grandi quantità di testo digitale, inclusi libri, articoli di Wikipedia, registri di chat e altre cose pubblicate online. Identificando miliardi di modelli in tutto quel testo, gli LLM hanno imparato a creare testo da soli, inclusi tweet, post di blog, discorsi e programmi per computer. Possono persino tenere una conversazione.

Questi sistemi sono un riflesso dell’umanità. Imparano le loro abilità analizzando il testo pubblicato da persone su Internet.

READ  I nuovi telefoni Samsung sostituiscono Google AI con Baidu in Cina

Non è l’unico motivo per cui i chatbot generano un linguaggio problematico, ha affermato Melanie Mitchell, ricercatrice di intelligenza artificiale presso il Santa Fe Institute, un laboratorio indipendente nel New Mexico.

Durante la creazione del testo, questi sistemi non ripetono parola per parola ciò che è su Internet. Generano nuovi testi da soli combinando miliardi di stili.

Anche se i ricercatori hanno addestrato questi sistemi solo sulla letteratura scientifica sottoposta a revisione paritaria, potrebbero comunque produrre affermazioni scientificamente assurde. Anche se hanno solo appreso dal testo che era vero, possono comunque produrre falsità. Anche se imparano solo dal testo sano, potrebbero comunque essere in grado di generare qualcosa di inquietante.

“Non c’è niente che impedisca loro di farlo”, ha detto il dottor Mitchell. “Stanno solo cercando di produrre qualcosa che suoni come il linguaggio umano.”

Gli esperti di intelligenza artificiale sanno da tempo che questa tecnologia presenta tutti i tipi di comportamento inaspettato. Ma non sono sempre d’accordo su come spiegare questo comportamento o quanto velocemente i chatbot possono migliorare.

Poiché questi sistemi apprendono da molti più dati di quanti noi umani possiamo comprendere, anche gli esperti di intelligenza artificiale non possono capire perché stanno generando una parte di testo specifica in un dato momento.

Il dottor Czejkowski ha affermato di ritenere che a lungo termine i nuovi chatbot abbiano il potenziale per rendere le persone più efficienti e offrire loro modi per svolgere il proprio lavoro meglio e più velocemente. Ma questo comporta un avvertimento sia per le aziende che costruiscono questi chatbot sia per le persone che li usano: possono anche condurci più lontano dalla verità e in luoghi oscuri.

“Questo è un territorio inesplorato”, ha detto il dottor Czejkowski. “Gli esseri umani non l’hanno mai sperimentato prima.”