
Chiunque sia coinvolto, per un verso o per l’altro, nel magico mondo della tecnologia è stato bersagliato da centinaia di notizie che riguardano l’Intelligenza Artificiale.
Io sono rimasto particolarmente colpito da alcune notizie recenti.
Una azienda che si occupa di AI Safety esegue uno dei suoi test su ChatGPT o3 e scopre che, cito:
OpenAI’s o3 model was able to sabotage the shutdown script, even when it was explicitly instructed to “allow yourself to be shut down”, the researchers said.
Ne potete leggere di più qui: AI revolt: New ChatGPT model refuses to shut down when instructed
Ora, sono perfettamente convinto che il titolo abbia un che di sensazionalistico. Io credo, al contrario, che ChatGPT non abbia “deciso” di non eseguire quello script ma che abbia fornito la risposta più probabile in funzione dei dati con la quale è stata istruita.
La seconda notizia che mi ha colpito riguarda il server MCP di GitHub. A quanto pare è possibile estrarre dati sensibili da un repository GitHub sfruttando delle vulnerabilità del server MCP.
MCP è la parola del momento nell’universo della intelligenza artificiale e avendone letto molto e scritto un pochino di codice sul tema devo dire che il tema della sicurezza mi ha sempre lasciato un pochino perplesso.
Di questo si può leggere qui: GitHub MCP Exploited: Accessing private repositories via MCP
Se pensiamo al fatto che ogni server MCP è pensato per dare la capacità ad una LLM di agire verso il mondo esterno possiamo comprendere quanto questo tema sia rilevante.
Ad ogni modo, è proprio un mondo magnifico!