Il Brooking Institute ha rilasciato una guida sul watermarking nell’AI. Watermarking è un termine generico che include approcci diversi, ma nel caso specifico le più sofisticate tecniche di watermarking digitale incorporano nei contenuti generati dall’AI degli schemi (patterns) impercettibili che solo i computer possono rilevare.
A distanza di oltre 15 anni la storia di Stuxnet (ovvero il malware che sabotò il programma nucleare iraniano, poi ribattezzato la prima nota “cyber-arma”) continua a far parlare di sé.
Dopo più di due anni di gestazione, un record di 36 ore di negoziazioni estenuanti, una conferenza stampa annunciata e saltata a data da destinarsi, per poi finire in corner a mezzanotte, e un interesse da evento sportivo mai visto prima per regolamentazioni tech, è stato infine raggiunto un accordo politico in Europa per l’AI Act, il regolamento Ue sull’intelligenza artificiale.
“Sbattete fuori tutta questa gente!”. Osservando quanto accaduto al consiglio di amministrazione di OpenAI, mi è venuta in mente questa frase, attribuita a Murat nei confronti dell’aula del Consiglio dei Cinquecento, quando Napoleone con un colpo di Stato mise fine alla Repubblica e al Direttorio, facendo iniziare il Consolato.
Tra venerdì e domenica abbiamo assistito a uno degli eventi più assurdi del settore tech, che – diciamolo – non si è fatto mai mancare nulla a livello di “drama”, come dicono in inglese, e colpi di scena.
Tra fine ottobre e inizio novembre abbiamo assistito a un climax di incontri, iniziative e dichiarazioni di policy sull’intelligenza artificiale. Ordine esecutivo americano, dichiarazione del G7, AI Safety Summit in UK, mentre sullo sfondo procedono, in una specie di corsa a ostacoli, gli ultimi lavori dell’AI Act, l’atteso regolamento europeo sull’AI che deve chiudersi all’inizio del nuovo anno per non ritrovarsi impantanato nelle prossime elezioni europee.
Nella scorsa newsletter avevo raccontato come la Striscia di Gaza stesse subendo una progressiva riduzione della connettività. Negli ultimi tre giorni questa ha visto un ulteriore tracollo.
La rivista The Atlantic ha messo a disposizione uno strumento per cercare quali libri e autori facciano parte di un corpus di testi usati per addestrare diversi sistemi di intelligenza artificiale generativa, in particolare LLaMa, una serie di modelli linguistici di grandi dimensioni sviluppati da Meta (Facebook) e simile a GPT di OpenAI (che sta alla base del chatbot ChatGPT).
Secondo alcuni giornali e fonti russe, Yevgeny Prigozhin, il capo della milizia privata Wagner, avrebbe chiuso il suo gruppo media Patriot, che includeva anche l’ormai famosa Internet Research Agency (IRA), spesso definita la “fabbrica di troll”, e accusata di condurre varie operazioni di influenza online a vantaggio di interessi russi.
Nel luglio 2020 emerse sui media un’operazione di polizia internazionale in Europa che aveva compromesso in modo radicale, con un hacking massivo ma dai dettagli ancora oggi poco definiti, Encrochat, un fornitore di “telefoni sicuri” (degli Android modificati con applicazioni di cifratura ad hoc, e un servizio di gestione da remoto che prometteva assistenza e cancellazione sicura in emergenza), che secondo le autorità era usato in modo prevalente se non esclusivo da membri della criminalità per gestire i loro traffici (e che utilizzava “opachi canali di distribuzione, ben diversi da canali commerciali normali”, come hanno dichiarato gli inquirenti).
Microsoft ha annunciato che nei prossimi mesi integrerà Copilot, il suo assistente AI, in Windows 11. Sarà quindi possibile, fra le altre cose, chiedere all’assistente di “regolare le impostazioni” o di eseguire altre azioni su un computer (The Verge).
Dare conto del dibattito in corso comporta una certa fatica. Una fatica espressa questa settimana dal giornalista Casey Newton, che nella sua ultima newsletter – intitolata Perché ho problemi a coprire l’AI – scrive: “Il motivo per cui ultimamente ho difficoltà a occuparmi di AI è che c’è un’elevata varietà nel modo in cui le persone che hanno esaminato la questione più approfonditamente pensano al rischio.
Una delle fughe di notizie più significative e pesanti per l’intelligence americana – e su temi particolarmente delicati, ovvero non solo la guerra in Ucraina in generale ma anche le valutazioni sulla controffensiva primaverile di Kiev tanto attesa e discussa in questi mesi, senza dimenticare riferimenti ad altri Paesi, da Israele all’Iran – è circolata in modo insolito e bizzarro tra server Discord, Telegram e 4chan.
La notizia che questa settimana ha invaso i media sul fronte intelligenza artificiale ha a che fare con delle dimissioni. O con una sorta di volontario pensionamento in vista di altri progetti.
È il dicembre 2021 ed escono due report che si occupano di sorveglianza e spyware – software spia che infettano un dispositivo (sempre più spesso un cellulare) e ne monitorano tutte le attività e comunicazioni.
OpenAI, creata per evitare una corsa all’intelligenza artificiale (AI), ne ha invece lanciata una, ha commentato questa settimana Jamie Metzl, consulente di geopolitica e innovazione.
hookii utilizza cookie di terze parti per funzionare al meglio. Cliccando su OK, l'utente del sito acconsente all'uso dei cookie. Per maggiori informazioni cliccare su Leggi di più.OkLeggi di più