Giugno 18, 2024

TeleAlessandria

Informazioni sull'Italia. Seleziona gli argomenti di cui vuoi saperne di più

Gli ex membri del consiglio di amministrazione di OpenAI affermano che non ci si può fidare della società per governarsi da sola

Gli ex membri del consiglio di amministrazione di OpenAI affermano che non ci si può fidare della società per governarsi da sola

Sam Altman, CEO di OpenAI, ha affrontato il controllo contro la sua azienda da quando è stato reintegrato come CEO a novembre.
Jason Redmond/AFP tramite Getty Images

  • Gli ex membri del consiglio di amministrazione di OpenAI hanno scritto su The Economist che i governi dovrebbero regolamentare le società di intelligenza artificiale.
  • Helen Toner e Tasha McAuley erano le uniche donne nel consiglio di amministrazione dell’azienda e hanno lasciato l’azienda a novembre.
  • Entrambi hanno sostenuto la cacciata del CEO di OpenAI Sam Altman, che secondo loro ha creato un ambiente di lavoro “tossico”.

Due ex membri del consiglio di amministrazione di OpenAI affermano che A.I Non si può fidare che si governino da soli e la regolamentazione di terze parti è necessaria per ritenerli responsabili.

Helen Toner e Tasha McAuley erano membri del consiglio di amministrazione di OpenAI prima di dimettersi a novembre nel mezzo di una caotica campagna per estromettere il co-fondatore di OpenAI Sam Altman. Altman è stato rapidamente reintegrato come amministratore delegato pochi giorni dopo il suo licenziamento ed è tornato nel consiglio cinque mesi dopo.

I due ex membri del consiglio hanno scritto in un editoriale per The Economist che sostengono la loro decisione di licenziare Altman, citando dichiarazioni di alti dirigenti che hanno affermato che il co-fondatore ha creato una “cultura tossica della menzogna” e si è impegnato in un “comportamento”. [that] “Può essere descritto come un abuso psicologico.”

Da quando Altman è tornato nel consiglio di amministrazione a marzo, OpenAI è stata interrogata sul suo impegno per la sicurezza e criticata per aver utilizzato una voce AI che suonava stranamente simile all’attrice Scarlett Johansson in Chat GPT-4o.

READ  Ecco le aziende che quest'anno hanno licenziato i dipendenti

Con Altman tornato in carica, Toner e McCauley scrivono che non ci si può fidare di OpenAI per ritenersi responsabile.

“Riteniamo inoltre che gli sviluppi successivi al suo ritorno in azienda, compreso il suo ritorno nel consiglio di amministrazione e la partenza di talenti senior focalizzati sulla sicurezza, non siano di buon auspicio per l’esperimento di autonomia di OpenAI”, hanno scritto.

Affinché OpenAI possa riuscire nella sua missione dichiarata di apportare benefici a “tutta l’umanità”, Toner e McCauley sostengono che i governi devono intervenire e creare “quadri normativi efficaci ora”.

Gli ex membri del consiglio hanno scritto che una volta credevano che OpenAI potesse autogovernarsi, ma “sulla base della nostra esperienza, crediamo che l’autogoverno non possa resistere in modo affidabile alla pressione degli incentivi al profitto”.

OpenAI, Toner e McCauley non hanno risposto immediatamente a una richiesta di commento da parte di BI.

I politici devono “agire indipendentemente” dalle società di intelligenza artificiale

Toner e McCauley hanno qualificato le loro richieste di regolamentazione governativa riconoscendo che leggi mal progettate potrebbero soffocare “la concorrenza e l’innovazione” gravando sulle piccole imprese.

“È importante che i politici agiscano in modo indipendente dalle principali aziende di intelligenza artificiale quando sviluppano nuove regole”, hanno scritto. “Devono essere vigili contro le scappatoie, i ‘fossati’ normativi che proteggono i primi investitori dalla concorrenza e la possibilità di un’acquisizione normativa”.

Ad aprile, il Dipartimento per la sicurezza interna ha annunciato la creazione del Consiglio per la sicurezza e la protezione dell’intelligenza artificiale, che formulerà raccomandazioni sullo “sviluppo e l’implementazione sicura e protetta dell’intelligenza artificiale” in tutte le infrastrutture critiche negli Stati Uniti.

I 22 membri del consiglio includono Altman e amministratori delegati di importanti aziende tecnologiche, tra cui il CEO di Nvidia Jensen Huang e il CEO di Alphabet Sundar Pichai.

READ  Mi scusi! Foxconn potrebbe aver acquistato per errore una casa automobilistica

Sebbene il Consiglio di Sicurezza includa anche rappresentanti di organizzazioni no-profit tecnologiche, i leader delle aziende a scopo di lucro sono sovrarappresentati.

Gli esperti di etica dell’intelligenza artificiale che hanno parlato con Ars Technica hanno espresso preoccupazione per il fatto che l’enorme influenza delle aziende motivate dal profitto potrebbe portare a politiche che favoriscono l’industria rispetto alla sicurezza umana.

“Se siamo tutti d’accordo sul fatto che abbiamo a cuore la sicurezza delle persone in termini di come utilizziamo l’intelligenza artificiale, allora penso che possiamo essere d’accordo sul fatto che è importante avere al tavolo persone specializzate nel mantenere le persone concentrate sulla tecnologia”, ha affermato Margaret Mitchell , un esperto nel campo della tecnologia. Lo ha detto ad Ars Technica l’esperto di etica dell’intelligenza artificiale di Hugging Face.

Un portavoce del Dipartimento per la Sicurezza Nazionale non ha risposto a una richiesta di commento.

Axel Springer, la società madre di Business Insider, ha un accordo globale per consentire a OpenAI di addestrare i suoi modelli sui report dei suoi marchi mediatici.