www.afnews.info segnala:
Scovare le vulnerabilità dell’intelligenza artificiale nei modelli linguistici di grandi dimensioni, Large Language Model (LLM), è diventata la sfida del decennio per un numero crescente di hacker malevoli. Contro di loro, gli sviluppatori stanno sguinzagliando schiere di ricercatori che hanno il compito di provare e riprovare i prodotti messi a disposizione del grande pubblico, in modo tale da arrivare prima rispetto ai cattivi della rete. Dunque, combattere i malintenzionati resta fondamentale per governare la democratizzazione dell’intelligenza artificiale. Oggi la riflessione pubblica ha messo in chiaro che, oltre agli aspetti di indubbia utilità, esiste più di un lato oscuro, e tenerlo a bada richiederà una costante attenzione…
Leggi il resto su: Read More Wired Italia
Scopri di più da afNews
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.