Microsoft ha annunciato che nei prossimi mesi integrerà Copilot, il suo assistente AI, in Windows 11. Sarà quindi possibile, fra le altre cose, chiedere all’assistente di “regolare le impostazioni” o di eseguire altre azioni su un computer (The Verge).
Dare conto del dibattito in corso comporta una certa fatica. Una fatica espressa questa settimana dal giornalista Casey Newton, che nella sua ultima newsletter – intitolata Perché ho problemi a coprire l’AI – scrive: “Il motivo per cui ultimamente ho difficoltà a occuparmi di AI è che c’è un’elevata varietà nel modo in cui le persone che hanno esaminato la questione più approfonditamente pensano al rischio.
Una delle fughe di notizie più significative e pesanti per l’intelligence americana – e su temi particolarmente delicati, ovvero non solo la guerra in Ucraina in generale ma anche le valutazioni sulla controffensiva primaverile di Kiev tanto attesa e discussa in questi mesi, senza dimenticare riferimenti ad altri Paesi, da Israele all’Iran – è circolata in modo insolito e bizzarro tra server Discord, Telegram e 4chan.
La notizia che questa settimana ha invaso i media sul fronte intelligenza artificiale ha a che fare con delle dimissioni. O con una sorta di volontario pensionamento in vista di altri progetti.
È il dicembre 2021 ed escono due report che si occupano di sorveglianza e spyware – software spia che infettano un dispositivo (sempre più spesso un cellulare) e ne monitorano tutte le attività e comunicazioni.
OpenAI, creata per evitare una corsa all’intelligenza artificiale (AI), ne ha invece lanciata una, ha commentato questa settimana Jamie Metzl, consulente di geopolitica e innovazione.
Nella settimana in cui la corsa all’intelligenza artificiale fa l’ennesimo balzo in avanti, le questioni etiche e soprattutto i team che si occupano di etica in relazione a questa tecnologia sono mollati indietro come un’inutile zavorra.
Mentre imprenditori tech e Ceo ci illustrano le possibilità (a volte ancora presunte) della rivoluzione AI – su cui ormai si stanno riversando copiosi investimenti e sforzi di marketing – ogni tanto torna a galla, come un ricordo spiacevole vanamente represso, la possibilità (reale e concreta) di usare gli ultimi sviluppi tecnologici a fini di sorveglianza.
Dopo gli Usa, TikTok è entrata nel mirino delle istituzioni Ue. Prima era arrivata la decisione della Commissione europea: app sospesa dai dispositivi di lavoro dei dipendenti dell’esecutivo europeo (e dai telefoni personali ma in realtà autorizzati ad accedere ad applicazioni di lavoro).
A un anno dall’inizio della guerra in Ucraina e della cyberwarfare collegata, la maggior parte degli osservatori ritengono ancora (come già ritenevano mesi fa) che la risposta di Kiev sul fronte cyber sia stata al di sopra di molte aspettative.
Nelle ultime due newsletter abbiamo parlato della corsa all’AI da varie angolazioni (qui e qui), e ci siamo lasciati con le parole di Yann LeCun, uno dei padri fondatori della rivoluzione del deep learning, nonché Chief AI Scientist di Meta, che sembravano voler ridimensionare la novità di ChatGPT, il chatbot di OpenAI di cui tutti parlano da mesi, sottolineando come quella tecnologia non sia né unica né nuova e come esistano altri attori in gioco (che poi l’uscita di LeCun possa essere motivata anche da un certo fastidio per il successo mediatico del laboratorio rivale ci può stare ma interessa relativamente).
Cosa succede se fai scrivere i tuoi articoli a un’intelligenza artificiale?, scriveva giorni fa Il Post, con squisito understatement, in merito alla debacle di Cnet.
Apple ha annunciato l’aggiunta di tre nuove funzioni di sicurezza ai suoi servizi.
La prima si chiama iMessage Contact Key Verification e mostra avvisi all’interno delle conversazioni iMessage ogni volta che un nuovo dispositivo viene aggiunto all’account di un partecipante.
Indubbiamente gli ultimi sconquassi di Twitter (vedi la mia ultima newsletter), hanno prodotto un brusco incremento di utenti verso Mastodon, con alcune delle istanze più popolari che sospendevano le iscrizioni.
Qualunque cosa si possa pensare di Elon Musk e di Twitter (e lo spettro di questi pensieri è molto ampio), su una cosa possiamo forse concordare subito: non abbiamo assistito a una normale acquisizione di un social network.
Proseguono le audizioni della commissione PEGA, istituita dal Parlamento EU per indagare sull’uso dello spyware Pegasus e di altri strumenti equivalenti contro cittadini europei per motivi politici.
Uno scandalo politico e di intelligence ad altissimo livello, con al centro la cybersicurezza, sta scuotendo la Germania. È una vicenda complessa con molti punti ancora da chiarire ma ci sono alcuni elementi interessanti che vorrei evidenziare.
hookii utilizza cookie di terze parti per funzionare al meglio. Cliccando su OK, l'utente del sito acconsente all'uso dei cookie. Per maggiori informazioni cliccare su Leggi di più.OkLeggi di più