Sam Altman teme gli effetti dell'intelligenza artificiale sulle elezioni
Ancora una volta, il CEO di OpenAI Sam Altman – il cui lancio a novembre del popolare chatbot ChatGPT ha probabilmente dato il via all’adozione diffusa da parte del pubblico della tecnologia di intelligenza artificiale generativa – è preoccupato per l’impatto della tecnologia che sta lavorando attivamente per costruire.
Questa volta, è preoccupato per gli effetti potenzialmente distruttivi che gli strumenti di intelligenza artificiale generativa potrebbero avere sul processo democratico, sostenendo che i media sintetici di alta qualità e iper-mirati potrebbero essere una forza potente e potenzialmente dannosa nelle future elezioni – una paura che è già stata diffusa. sollevato da numerosi esperti e leader del settore.
"Sono nervoso per l'impatto che l'intelligenza artificiale avrà sulle future elezioni (almeno finché tutti non ci si abitueranno)", ha scritto giovedì Altman in un post su X-ex-Twitter, "una persuasione personalizzata 1:1, combinata con un'elevata -media generati di qualità, sarà una forza potente."
È una giusta preoccupazione. I media generati dall’intelligenza artificiale sono già stati utilizzati in numerose campagne pubblicitarie americane relative alle elezioni del 2024, in particolare da artisti del calibro del Comitato nazionale repubblicano e dalla campagna del promettente presidente Ron Desantis, che ha utilizzato strumenti di intelligenza artificiale per generare immagini false di una Cina immaginata. -Rispettivamente l’invasione degli Stati Uniti e il presidente Joe Biden che baciano l’ex leader americano della risposta alla pandemia Anthony Fauci.
Anche la disinformazione prodotta dall’intelligenza artificiale si è già dimostrata piuttosto convincente. Sebbene sia stata rapidamente smentita come una notizia falsa, una foto probabilmente generata dall'intelligenza artificiale di un bombardamento vicino al Pentagono, ad esempio, ha causato un breve ma notevole calo nel mercato azionario dopo essere diventata virale su Twitter a maggio.
E già a giugno, immagini sintetiche di abiti demoniaci per bambini da Target hanno mandato i gruppi di estrema destra sui social media in una spirale di guerra culturale – un incidente che sembra rispondere all'avvertimento di Altman sulla persuasione personalizzata. Le persone tendono a cercare informazioni che confermino ciò in cui già credono; con il giusto suggerimento e la giusta piattaforma, potrebbe essere relativamente facile risucchiare alcuni gruppi ideologici in trappole sintetiche di disinformazione.
Naturalmente, considerando che Altman trae profitto dagli strumenti che regolarmente avverte essere pericolosi, a volte è difficile prenderlo sul serio quando parla dei rischi dell’intelligenza artificiale, anche quando ha oggettivamente ragione a preoccuparsi. Ma come ha affermato lui stesso in passato, probabilmente è meglio che nutra un po' di timore nei confronti delle sue creazioni, piuttosto che ignorare apertamente i rischi.
"anche se non è una soluzione completa, sensibilizzare l'opinione pubblica è meglio di niente", ha scritto nel thread di giovedì su X. "siamo curiosi di sentire idee e presto avremo alcuni eventi per discuterne di più".
Altro su Sam Altman:Il CEO di OpenAI spera che i leader mondiali ci salveranno dall'intelligenza artificiale che sta costruendo
Condividi questo articolo
Altro su Sam Altman: