Luglio 27, 2024

TeleAlessandria

Informazioni sull'Italia. Seleziona gli argomenti di cui vuoi saperne di più

La demo per insegnanti con iPad AI apre un mondo nuovo e straordinario per gli studenti

La demo per insegnanti con iPad AI apre un mondo nuovo e straordinario per gli studenti

Se non l’hai ancora fatto un testimone All’evento OpenAI di ieri, ho caldamente raccomandato di fare proprio questo. Il titolo della notizia era che l’ultimo GPT-4o funziona perfettamente con qualsiasi combinazione di testo, audio e video.

Ciò include la possibilità di “mostrare” a un’app GPT-4o la registrazione dello schermo che stai catturando su un’altra app – e questa è una capacità che l’azienda ha mostrato con una demo piuttosto folle del guru dell’intelligenza artificiale per iPad…

GPT-4o

OpenAI ha affermato che la “o” sta per “omni”.

GPT-4o (“o” per “omni”) rappresenta un passo avanti verso un’interazione uomo-computer più naturale: accetta come input qualsiasi combinazione di testo, audio e immagine e genera qualsiasi combinazione di testo, audio e immagine come output.

Può rispondere all’input vocale in appena 232 millisecondi, con una media di 320 millisecondi, che è simile al tempo di risposta umano(opens in a new window) durante una conversazione. […] GPT-4o è particolarmente migliore nel comprendere la visione e il suono rispetto ai modelli attuali.

Anche l’aspetto audio è un grosso problema. In precedenza, ChatGPT poteva accettare l’input vocale, ma lo convertiva in testo prima di lavorarci. Al contrario, GPT-4o capisce effettivamente il parlato, quindi salta del tutto la fase di conversione.

Come abbiamo notato ieri, gli utenti gratuiti ottengono anche molte funzionalità che in precedenza erano limitate agli abbonati paganti.

Demo per insegnanti sull’intelligenza artificiale per iPad

Una delle capacità dimostrate da OpenAI è la capacità di GPT-4o di vedere cosa stai facendo sullo schermo dell’iPad (in modalità schermo diviso).

L’esempio mostra un’intelligenza artificiale che insegna a uno studente che ha un problema di matematica. Puoi sentire che GPT-4o inizialmente ha capito il problema e voleva risolverlo immediatamente. Ma la nuova forma può essere interrotta, nel qual caso gli viene chiesto di aiutare lo studente a risolverla da solo.

READ  Casuale: Sakurai prende posizione contro i trailer dei giochi CGI

Un’altra capacità che emerge qui è che il modello afferma di rilevare le emozioni nel discorso e di poter anche esprimere le emozioni stesse. Per i miei gusti, questo era un po’ esagerato nella beta, e questo si riflette anche qui: l’IA è forse un po’ condiscendente. Ma tutto questo è regolabile.

In effetti, ogni studente nel mondo può avere un tutor privato con questo tipo di capacità.

Quanto di tutto questo integrerà Apple?

Sappiamo che l’intelligenza artificiale è l’obiettivo principale di iOS 18 e che è in fase di conclusione un accordo per portare le funzionalità OpenAI sui dispositivi Apple. Mentre all’epoca veniva descritto come per ChatGPT, ora sembra molto probabile che l’accordo reale riguardi l’accesso a GPT-4o.

Ma sappiamo anche che Apple ha lavorato sui propri modelli di intelligenza artificiale, con i propri data center che gestiscono i propri chip. Ad esempio, Apple lo stava sviluppando re Un modo per consentire a Siri di comprendere le schermate delle app.

Quindi non sappiamo esattamente quali funzionalità GPT-4o l’azienda porterà sui suoi dispositivi, ma questa funzionalità sembra così perfetta per Apple che devo credere che sarà inclusa. Questo significa davvero usare la tecnologia per dare potere alle persone.

immagine: OpenAI. Benjamin Mayo ha contribuito a questo rapporto.