Crea video realistici dal testo con Sora, la scelta dei creatori di OpenAI per ChatGPT

Crea video realistici dal testo con Sora, la scelta dei creatori di OpenAI per ChatGPT

La nuova IA non è ancora disponibile al grande pubblico. (X:Occhio aperto)

OpenAI, la popolare organizzazione di ricerca sull'intelligenza artificiale dietro ChatGPT, ha raggiunto una nuova pietra miliare nell'evoluzione della tecnologia lanciando Sora, uno strumento in grado di creare video da descrizioni testuali.

Questo risultato non solo espande gli orizzonti della creazione di contenuti digitali, ma fornisce anche spunti affascinanti su come interagiscono linguaggio e immagini Può trasformare il modo in cui lo usi intelligenza artificiale attualmente.

Sora da OpenAI Si tratta di un nuovo modello che, anche se ancora in fase di test, può già creare video della durata massima di un minuto. L'azienda, guidata da Sam Altman, afferma che Sora può creare video che sembrano molto reali e seguono esattamente ciò che gli utenti chiedono, senza perdere la qualità dell'immagine.

L'intelligenza artificiale è in grado di produrre video con suggerimenti molto specifici. (X:Occhio aperto)

Sora funziona utilizzando un principio molto simile ai generatori che convertono il testo in un'immagine. Ciò significa che gli utenti possono fornire istruzioni o “suggerimenti” molto dettagliati su ciò che desiderano vedere nel video.

Questi segnali possono essere specifici quanto desidera l'utente, consentendo loro di includere dettagli fini sul movimento della fotocamera, paesaggi, abbigliamento delle persone e altri elementi che desiderano incorporare nella scena.

Ciò offre una grande libertà creativapoiché lo strumento si adatta alle specifiche fornite per creare un video che corrisponda il più possibile alla visione dell'utente.

Lo strumento include istruzioni molto specifiche. (X:Occhio aperto)

OpenAI ha condiviso diversi esempi di video e istruzioni, uno dei quali è:

READ  Questo Xiaomi ha esattamente ciò di cui hai bisogno

“La bellissima città innevata di Tokyo è piena di vita. La telecamera si muove lungo le trafficate strade cittadine, seguendo diverse persone che si godono il bel tempo nevoso e fanno shopping nelle bancarelle vicine. Bellissimi petali di sakura fluttuano nel vento insieme ai fiocchi di neve.”

al momento, Sora è utilizzato esclusivamente da un gruppo selezionato di persone che fanno parte del “Red Team” di OpenAI, con l'obiettivo principale di identificare potenziali guasti, danni o rischi nello strumento.

Un “team rosso” è un gruppo specializzato la cui missione principale è valutare e testare sistemi, software o applicazioni per identificare potenziali punti deboli, difetti o rischi. Il loro compito è pensare e agire come potenziali avversari, simulando metodi e tattiche che un vero aggressore potrebbe utilizzare.

L’intelligenza artificiale è ancora in fase di sperimentazione. (X:Occhio aperto)

accanto a, OpenAI ha ampliato l'accesso a Sora per includere una piccola comunità di artisti visivi, designer e registi Raccogliere i loro feedback per migliorare e adattare il modello, rendendolo più utile per chi lavora nel campo creativo.

L'azienda ha deciso di condividere in anticipo gli sviluppi e i progressi della propria ricerca per aprire un canale di feedback con persone esterne a OpenAI, consentendo una migliore comprensione di come le capacità dell'intelligenza artificiale possono essere sfruttate per trarre vantaggio e avanzare in diverse aree, inclusa questa volta l'offerta di pubblico un assaggio di ciò che le future tecnologie di intelligenza artificiale possono fare.

OpenAI ha notato che i video condivisi sul blog per annunciare Sora non hanno ricevuto alcuna modifica.

La qualità delle immagini dei video è promettente. (Occhio aperto)

In quest’ottica lo strumento sembra avere grandi potenzialità, anche se è necessario provarlo di persona per valutarne le reali capacità.

READ  Questa è la versione più esclusiva delle cuffie wireless Samsung

Tuttavia, la società ha anche avvertito che Sora, come qualsiasi altro strumento di intelligenza artificiale, presenta limiti e sfide.

Per esempio, Potrebbe avere problemi a rappresentare accuratamente la fisica in scene complesse o non riuscire a identificare relazioni specifiche Causa ed effetto tra gli elementi video.

Dovremo però aspettare ancora un po' per poter accedere a questo nuovo modello e testarlo direttamente.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top