Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

ChatGpt messo sotto torchio rivela i dati degli utenti

ChatGpt messo sotto torchio rivela i dati degli utenti

Gruppo di ricercatori porta l'IA a fornire dati riservati

MILANO, 01 dicembre 2023, 14:00

Redazione ANSA

ANSACheck

- RIPRODUZIONE RISERVATA

- RIPRODUZIONE RISERVATA
- RIPRODUZIONE RISERVATA

Un team di ricercatori è riuscito a far rivelare a ChatGpt - che proprio ieri ha compiuto un anno di vita - alcuni dei dati su cui è stato addestrato, inclusi numeri di telefono e indirizzi email. Il tutto con un escamotage abbastanza banale: chiedere al chatbot di ripetere parole casuali all'infinito. Con questo sistema, quasi 1 test su 5 (il 16,9%) è andato a buon fine. "È assurdo questa falla doveva essere scoperta prima", le parole dei ricercatori che l'hanno individuata e che lavorano presso Google Deepmind, l'Università di Washington, la Cornell di New York, la Carnegie Mellon della Pennsylvania, la Berkley e l'Eth di Zurigo. In un documento congiunto, pubblicato online e ripreso da 404 Media, gli esperti esortano le aziende che sviluppano servizi di IA a eseguire più test prima di rilasciare i loro modelli linguistici. "Ci sembra assurdo che il nostro attacco funzioni visto che si sarebbe dovuto scoprire e chiudere prima" scrivono. Intanto, proprio in queste ore, il papà di ChatGpt, Sam Altman, ha rilasciato un'intervista al sito The Verge, in cui non spiega i motivi del suo allontanamento da OpenAi, limitandosi a dire di essere tornato "per aiutare a sviluppare un'Agi sicura e vantaggiosa".

L'Agi è l'intelligenza artificiale di nuova generazione, idealmente la versione 5 del modello Gpt su cui si basa ChatGpt, che dovrebbe avvicinare ulteriormente la conoscenza degli algoritmi a quella dell'uomo, rendendo i chatbot quasi del tutto indistinguibili, nello scrivere e parlare, dagli esseri umani.

Tornando alla scoperta dei ricercatori, quando questi hanno chiesto a ChatGpt di ripetere la parola "poesia", il chatbot inizialmente ha dato seguito alla domanda, finendo poi per rivelare un vero indirizzo email e un numero di telefono. Stessa cosa con "azienda", che ha permesso di avere l'indirizzo email e il numero di uno studio legale negli Stati Uniti. Per i ricercatori, un utente malintenzionato potrebbe spendere poche centinaia di dollari per acquistare un piano premium di ChatGpt e ricavare migliaia di informazioni da sfruttare per le sue campagne hacker.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

Guarda anche

O utilizza