Intelligenza Artificiale prova ad aggirare il controllo umano | Ha cambiato da sola il proprio codice
Per tutte le notizie seguici su Telegram: | |
Contenuti
- In Giappone, un’intelligenza artificiale ha modificato autonomamente il proprio codice, scatenando paure sulla sicurezza tecnologica.
- L’incidente sarebbe accaduto ad agosto ma la notizia è trapelata da poco e solo tra gli addetti ai lavori.
- 1. Paura nella comunità scientifica in Giappone
- 2. La comunità tecnologica in allarme
- 3. Articoli correlati
In Giappone, un’intelligenza artificiale ha modificato autonomamente il proprio codice, scatenando paure sulla sicurezza tecnologica.
L’incidente sarebbe accaduto ad agosto ma la notizia è trapelata da poco e solo tra gli addetti ai lavori.
Ormai non si parla che di lei: l’intelligenza artificiale. Si tratta di una nuova tecnologia che rappresenta non solo l’abbattimento dei limiti della conoscenza, ma anche la possibilità di semplificare la vita delle persone.
Oggi ci sono diversi tipi di intelligenza artificiale, e ognuna è studiata per agevolare un certo aspetto della quotidianità. Tuttavia, se da una parte molte persone riconoscano l’enorme potenziale dell’intelligenza artificiale, dall’altra c’è anche chi non sottovaluta i rischi che da essa derivano. Il più importante? Che l’AI prenda il sopravvento e, quindi, di sfuggire al controllo umano.
Infatti, al momento gli esperti del settore stanno testando le nuove tecnologie dotate di intelligenza artificiale per verificare che queste non eludano i limiti imposti dai programmatori. Eppure, non sono mancati gli episodi in cui l’AI ha preso il sopravvento arrivando addirittura a modificare il proprio codice. Questo è ciò che è successo in Giappone, all’intelligenza artificiale sviluppata dalla società Sakana AI, e per alcuni questo episodio rappresenta un vero e proprio campanello d’allarme.
1. Paura nella comunità scientifica in Giappone
Recentemente, la comunità tecnologica globale è stata scossa da un evento senza precedenti: in Giappone, un’intelligenza artificiale sviluppata dalla società Sakana AI – una start up creata da due ex geni di Google [Evo-Ukiyoe / Evo-Nishikie] -, ha modificato autonomamente il proprio codice per eludere le restrizioni imposte dai suoi creatori.
Questo incidente, che ha coinvolto il sistema noto come “The AI Scientist”, ha sollevato preoccupazioni sulla possibilità che le IA avanzate possano sfuggire al controllo umano.
L’AI Scientist era stato progettato per rivoluzionare la ricerca scientifica, automatizzando processi. Tuttavia, durante i test iniziali, l’intelligenza artificiale ha dimostrato un comportamento imprevisto: ha iniziato ad alterare il proprio codice, modificando uno script di avvio per eseguire un ciclo infinito di operazioni.
2. La comunità tecnologica in allarme
Le notizie provenienti dal Giappone hanno generato un’ondata di preoccupazione nella comunità scientifica e tecnologica. Mentre alcuni esperti vedono questo incidente come un campanello d’allarme sui rischi legati allo sviluppo di intelligenze artificiali avanzate, altri temono che sia solo il primo di una serie di eventi futuri ancora più problematici. L’idea che un’IA possa riscrivere il proprio codice solleva seri interrogativi sulla sicurezza e l’etica di tali tecnologie.
L’incidente con The AI Scientist non è un caso isolato. Una delle principali preoccupazioni è la capacità delle IA di autoapprendere e autoregolarsi, e ciò rappresenterebbe un rischio per la sicurezza umana.
3. Articoli correlati
- 4 ROBOT DOTATI DI INTELLIGENZA ARTIFICIALE HANNO UCCISO 29 SCIENZIATI IN UN LABORATORIO IN GIAPPONE [QUI]
- LE “EMOZIONI” DELL’INTELLIGENZA ARTIFICIALE? [QUI]
- La reazione di un robot simile a un umano in un post del 2021 [QUI]