La Cina ha annunciato martedì che “Valutazione della sicurezza“Strumenti di intelligenza artificiale (AI), tra gli sforzi dei giganti cinesi per progettare strumenti simili alla piattaforma ChatGPT. Con questo gli asiatici si uniscono a paesi come Stati Uniti e Italia, Altri cercano di legiferare su questi precedenti per garantire che i dati personali non vengano violati.
ChatGPT – Un sistema in grado di produrre contenuti scritti in modo più coerente e umano- Cresciuto come una rivoluzione tecnologicaMa alcuni avvertono dei rischi significativi che questo tipo di strumento può comportare, in particolare nelle questioni etiche e morali che circondano il suo sviluppo e il successivo utilizzo.
sistema Fanno molti errori In semplici problemi di matematica, invece Ha il potere di fabbricare false informazioni. La cosa più sorprendente di tutte, le sue risposte erano completamente credibili. Quando un ricercatore ha chiesto quali sono i benefici del consumo di vetro, ChatGPT ha presentato una storia sul perché fa bene alla salute.
Nei social network, ChatGPT AI aggiunge errori man mano che la conversazione procede, in alcuni casi terminando anche con suggerimenti dannosi, quindi anche la manipolazione è a rischio.
Controllo per la rivoluzione
Molti paesi europei hanno avanzato strategie per mitigare i rischi di questa tecnologia Elon Musk. Italia È il primo paese a decidere di vietare l’uso di ChatGPT, considerando che il sistema non rispetta le norme sulla protezione dei dati e non ha un processo di filtraggio per i minori. Questa settimana, Stati Uniti e Cina, Ha annunciato che avrebbe iniziato a “regolamentare” i programmi basati sull’intelligenza artificiale.
In questo senso, l’amministrazione Joe Biden ha concesso 60 giorni per raccogliere idee su come legiferare contro le conseguenze indesiderate di questi programmi che rappresentano un rischio in diversi settori come la privacy, la disinformazione o il mercato del lavoro.
Sulla stessa linea, la China’s Cyberspace Administration ha annunciato l’implementazione di un processo di “salvaguardia” per regolamentare i servizi di intelligenza artificiale e si è impegnata a richiedere alle aziende di sottoporre valutazioni periodiche alle autorità prima di rilasciare i loro prodotti al pubblico.
In Spagna, la strategia nazionale per l’intelligenza artificiale è stata presentata come obiettivo principale per fornire un quadro di riferimento per lo sviluppo di un’IA inclusiva, sostenibile e incentrata sui cittadini. Uno dei suoi punti è stabilire quadri normativi per definire e guidare la progettazione dell’IA in modo che le applicazioni risultanti rispettino i diritti dei cittadini.
In Bruxelles I contenuti generati dall’intelligenza artificiale comportano un avvertimento specifico e Francia, Irlanda e Germania Hanno autenticato i contatti per analizzare se avrebbero seguito queste istruzioni. Tutto per lo stesso motivo, proteggere i dati.
ho continuato a leggere:
“Ninja del bacon. Avvocato di viaggio. Scrittore. Esperto di cultura pop incurabile. Fanatico di zombie malvagio. Studioso di caffè per tutta la vita. Specialista di alcol.”