
Novità e trend
Per via dell'IA: "Clair Obscur: Expedition 33" non è il gioco indie dell'anno, dopo tutto
di Michelle Brändle

Nel Regno Unito, un rapporto sulla sicurezza della polizia di West Midlands è stato pesantemente criticato. Ora è emerso che si basa su false dichiarazioni dell'intelligenza artificiale "Copilot" di Microsoft.
Il Regno Unito sta fornendo un esempio perfetto del perché non si dovrebbero accettare informazioni da un'intelligenza artificiale senza verificarle. Il caso della partita di calcio di UEFA Europa League che si terrà a Birmingham il 6 novembre sta facendo scalpore: A ottobre, l'autorità di polizia responsabile ha annunciato che non avrebbe permesso ai tifosi ospiti di assistere alla partita tra il club inglese Aston Villa e il club israeliano Maccabi Tel Aviv.
La decisione si basava su una serie di motivi di ordine pubblico.
La decisione si è basata su un rapporto interno della polizia delle West Midlands e del consiglio comunale di Birmingham, che ha classificato la partita come ad alto rischio. Ora è emerso che il chatbot di Microsoft Copilot è stato utilizzato per l'analisi del rischio, ma ha fornito informazioni errate. Tra le altre cose, Copilot ha citato i disordini di una partita precedente che non si sono mai verificati.
In precedenza, i responsabili, soprattutto il capo della polizia delle West Midlands, Craig Guildford, erano stati criticati per settimane per aver escluso i tifosi israeliani. Con le accuse di antisemitismo, il caso è stato anche ampiamente discusso dalla politica britannica fin dall'inizio: Guildford e altri membri delle autorità hanno dovuto rispondere a diverse domande in parlamento.
Guildford aveva precedentemente negato che l'AI fosse stata utilizzata per il rapporto e aveva invece citato una ricerca errata su Google. A dicembre, la sua autorità aveva addirittura dichiarato che l'uso interno di strumenti di IA non era consentito. Ora Guildford ha ammesso il coinvolgimento di Copilot e si è scusato per la passata disinformazione. Politici di alto livello chiedono le sue dimissioni.
La dichiarazione ufficiale sulla non ammissione dei tifosi ospiti fa riferimento a rapporti segreti e a violenti disordini da parte dei tifosi del Maccabi in occasione di una partita ad Amsterdam nel 2024. Tuttavia, la polizia olandese ha smentito questa affermazione in una lettera.
I rapporti segreti contengono apparentemente riferimenti a una partita precedente tra il Maccabi Tel Aviv e il West Ham United, che però non ha mai avuto luogo. Come sia possibile che una partita fittizia possa entrare in un'analisi ufficiale del rischio e perché tali informazioni non vengano verificate è stato il fulcro dell'indagine sul caso.
Sotto la maschera di input del chatbot Copilot si può leggere: «Copilot è un'IA e può commettere errori». L'incidente illustra drasticamente i rischi dei moderni modelli linguistici. I chatbot AI generano le loro risposte sulla base di probabilità, non perché comprendono il contesto. Studi attuali - come questo - dimostrano che i modelli linguistici di grandi dimensioni possono semplicemente essere sistematicamente fuorviati.
Copilot potrebbe essere stato in grado di rispondere alle domande di un'altra persona.
Copilot potrebbe aver combinato modelli di giochi o messaggi precedenti e averne creato uno scenario fittizio. Il fenomeno dell'invenzione di affermazioni credibili è noto come allucinazione dell'AI.
Per gli scenari applicativi con dati sensibili o conseguenze di vasta portata, è quindi fondamentale verificare l'accuratezza dei testi generati.
Si sente a casa sia davanti al PC da gaming che sull'amaca in giardino. È affascinata dall'Impero Romano, dalle navi container e dai libri di fantascienza, tra le altre cose. Fiuta soprattutto le ultime notizie dal settore IT e smart gadget.
Dal nuovo iPhone al revival della moda anni '80. La redazione fa chiarezza.
Visualizza tutti