Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

L'Intelligenza Artificiale più severa dell'uomo nei giudizi

L'Intelligenza Artificiale più severa dell'uomo nei giudizi

Studio, per errori nell'addestramento

ROMA, 16 maggio 2023, 14:38

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

I modelli di Intelligenza Artificiale sono più severi degli umani quando si tratta di esprimere giudizi relativi a violazioni delle regole. All'origine di questa discrepanza, come indica una ricerca coordinata da Marzyeh Ghassemi dell'Istituto di Tecnologia del Massachusetts (Mit) pubblicata su Science Advances, non ci sarebbe un problema di giudizio delle macchine ma errori nel modo in cui vengono addestrate. L'obiettivo degli sviluppatori che si occupano di IA è quello di riuscire a replicare alcune delle capacità umane tra cui quella di saper giudicare e valutare le violazioni delle regole, una capacità che può avere applicazioni in vari contesti come in ambito bancario nella determinazione di fornire un prestito o giudiziario nel determinare il rischio che un imputato possa ripetere un crimine. Già da tempo in alcuni paesi queste valutazioni vengono usate a supporto dei decisori umani ma quel che lo studio osserva è che generalmente le valutazioni delle macchine sono piuttosto severe e secondo i ricercatori ciò sarebbe dovuto a errori nell'addestramento dei modelli.
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza