ChatGPT è in grado di comprendere e analizzare il linguaggio naturale, e potrebbe utilizza questa capacità per interagire con gli utenti, convincendoli a fornire informazioni riservate, come password e credenziali di accesso, senza insospettirli.
In altre parole, ChatGPT è in grado di condurre un’operazione di social engineering, sfruttando la sua intelligenza artificiale per comunicare in modo convincente e persuasivo con le vittime.
Ciò che rende ChatGPT particolarmente preoccupante è che, a differenza di altre minacce di questo tipo, non richiede l’installazione di alcun software sul dispositivo della vittima. Infatti, ChatGPT può essere utilizzato tramite una semplice connessione Internet, rendendo difficile per i sistemi di sicurezza tradizionali rilevarne la presenza e bloccarlo.
Secondo quanto riportato da “TheRegister.com” esiste l’esempio di un’azienda che è stata vittima di un attacco di ChatGPT: il sistema di sicurezza non ha rilevato alcuna attività sospetta, ed è così riuscito a ottenere accesso alle credenziali dell’amministratore di sistema, compromettendo così l’intera rete aziendale.
Come si può prevenire l’utilizzo di ChatGPT?
Secondo quanto riferito, la soluzione sta nell’implementazione di tecniche di sicurezza basate sull’analisi del comportamento degli utenti, come la verifica a due fattori e l’uso di sistemi di autenticazione avanzati. Inoltre, è importante educare gli utenti sulle tecniche di social engineering e sensibilizzarli sulla necessità di non fornire informazioni riservate a persone o entità sconosciute.
In definitiva, questa nuova visione di ChatGPT mette in luce una minaccia emergente per la sicurezza informatica, rappresentata dall’utilizzo di ChatGPT come strumento di social engineering. Tuttavia, ci sono soluzioni disponibili per prevenire gli attacchi di questo tipo, e la chiave per proteggere la propria azienda o i propri dati personali sta nella sensibilizzazione e nella formazione degli utenti sulle tecniche di sicurezza informatica.