Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Internet&Social
  1. ANSA.it
  2. Tecnologia
  3. Internet & Social
  4. Le fake-news diffuse dai pregiudizi, non dai motori di ricerca

Le fake-news diffuse dai pregiudizi, non dai motori di ricerca

Lo indica uno studio condotto su Google

Sono i pregiudizi umani, più che gli algoritmi, a far cadere nelle fake news: lo indica l'analisi del comportamento di alcuni volontari sul motore di ricerca di Google durante due campagne politiche americane. Guidata da Ronald Robertson, dell'Università di Stanford, la ricerca è pubblicata sulla rivista Nature. "Lo studio conferma quel che emerge già da alcuni anni, ossia mette in dubbio l'impatto degli algoritmi nella produzione delle cosiddette echo chamber e nel produrre polarizzazione", ha detto all'ANSA Tomasso Caselli, dell'Università di Groningen.

Note come luoghi virtuali e metaforici in cui tendono ad aggregarsi le persone che condividono idee simili e informazioni di parte, le echo chamber sono spesso al centro anche del dibattito politico perché considerate vere e proprie incubatrici di disinformazione. Per alcuni anni si è ritenuto che gli algoritmi usati dai motori di ricerca e dai social fossero in qualche modo i responsabili di questo fenomeno, noto anche 'filter bubble', secondo cui gli utenti sono passivamente guidati dalla personalizzazione dei contenuti offerti dagli algoritmi. Adesso "sembra che il potere di questi algoritmi sia in realtà meno forte di quel che si riteneva qualche anno fa", ha aggiunto Caselli. Per misurarne il potere i ricercatori si sono concentrati su un gruppo di volontari di cui è stato possibile monitorare il comportamento online, in particolare nelle ricerche fatte con Google durante le ultime due campagne elettorali. I risultati hanno evidenziato la neutralità dell'algoritmo, ossia non ha la predisposizione a mostrare contenuti che in qualche modo vadano a dare conferma dei pregiudizi iniziali. Erano invece gli utenti stessi a cercare notizie a conferma dei propri pregiudizi, rafforzando ulteriormente la propria posizione polarizzata.

"Ovviamente non è facile arrivare a risposte conclusive di nessun tipo, gli elementi sono molti e questo studio - ha concluso il ricercatore italiano - si riferisce alle ricerche con Google, mentre conosciamo quasi nulla degli algoritmi usati nei social. La polarizzazione è un fenomeno molto più complesso di quel che a volte si dice".

        RIPRODUZIONE RISERVATA © Copyright ANSA

        Video ANSA



        Modifica consenso Cookie