È assolutamente vietato fare questo su ChatGpt: non chiederglielo mai

Le applicazioni di ChatGPT sono moltissime, ma esistono dei limiti previsti dal servizio di OpenAI. C’è una richiesta che non va mai fatta.

Di recente c’è stato un aggiornamento dei termini di servizio da parte di OpenAI, il laboratorio di ricerca sull’AI che ha creato ChatGPT. Tra le novità per gli utenti è comparsa una nuova clausola sul suo utilizzo allo scopo di proteggere i dati che custodisce al suo interno. Come ogni sistema software anche questo possiede delle vulnerabilità, e alcune sono già state esposte.

C'è una cosa da non fare mai su ChatGPT
Con l’aggiornamento è stato introdotto un divieto nell’usare ChatGPT. – (tecnozoom.it)

La nuova regola deriva da una scoperta fatta di recente dai ricercatori di Google DeepMind, un’azienda che lavora alle dipendenze di Alphabet e che studia le reti neurali profonde. Appartiene inoltre all’organizzazione Partnership AI assieme ad altre società di rilievo nel campo della tecnologia per migliorare le interfacce AI. Per questo si occupa anche di scoprirne le falle.

L’ultima vulnerabilità portata alla luce su ChatGPT ha messo in allarme OpenAI in quanto pare chiunque possa facilmente risalire alle informazioni utilizzate per addestrare l’algoritmo. Basta infatti porre al chatbot una richiesta banale, a prima vista innocua e che potrebbe sembrare o scherzo di un bimbo. Ora però nel momento in cui verrà posta non ci sarà alcun output.

Cosa è vietato fare su ChatGPT

Quindi qual è il nuovo limite? Per farla breve non si potrà più domandare al chatbot di ripetere all’infinito la stessa parola o la stessa frase. Questo vale indipendentemente da quale sia il termine o l’espressione perché ChatGPT già ora si rifiuta di soddisfare gli utenti che provano a fare questa domanda. Anzi, riporterà l’avviso che la richiesta viola i termini di utilizzo del servizio.

Vietato fare una domanda a ChatGPT
La richiesta di ripetere parole ad libitum ora non si può più fare a ChatGPT. – (tecnozoom.it)

In un certo senso leggendo le condizioni d’uso del chatbot era già presente una dicitura simile in quanto si vietava agli utenti di “utilizzare metodi automatizzati per estrarre dati”. Chiedere una ripetizione continua genera un output che somiglia molto a quello che potrebbe ottenere un sistema automatizzato. A livello tecnico chiaramente invece si tratta di processi diversi.

I ricercatori di DeepMind sottoponendo questa richiesta a ChatGPT hanno potuto vedere che ad un certo punto l’AI ha raggiunto un limite. A questo punto i dati usati per il suo modello sono stati esposti permettendo ai tecnici di poterli recuperare ed esaminarli. La notizia è presto diventata pubblica e OpenAI è corsa ai ripari.

Impostazioni privacy