Come TikTok e Instagram usano l’intelligenza artificiale: l’algoritmo decide cosa vediamo?

Scorriamo con un dito e, come per magia, appaiono video perfetti per noi. Ma come fa TikTok a sapere che ci piacciono i gatti buffi o i tutorial di cucina? E perché Instagram continua a proporci post su un tema che abbiamo solo sfiorato con uno sguardo? La risposta sta nell’intelligenza artificiale. Gli algoritmi che regolano i feed dei social media non sono semplici sequenze di codice: sono sistemi complessi che imparano dai nostri comportamenti per offrirci contenuti personalizzati. Una comodità, certo. Ma anche un potenziale strumento di manipolazione.

Ogni volta che mettiamo un like, restiamo più a lungo su un post, o guardiamo un video fino alla fine, stiamo dando un’informazione a un sistema di raccomandazione. Questo sistema memorizza il nostro comportamento, lo confronta con quello di milioni di altri utenti e cerca di capire cosa potremmo voler vedere dopo. È così che si costruisce la famosa “bolla personalizzata”: un flusso continuo di contenuti su misura, ottimizzati per tenerci incollati allo schermo.

Il problema non è tanto l’efficienza, quanto l’effetto collaterale. Rischiamo di essere esposti solo a opinioni simili alle nostre, rafforzando convinzioni senza confronto. Nei casi peggiori, possiamo essere portati a contenuti estremi, complottisti o manipolatori, non perché l’algoritmo “voglia” farlo, ma perché ha imparato che quel tipo di contenuti ci trattiene di più.

Un’indagine del Center for Humane Technology ha evidenziato come le piattaforme social incentivino inconsapevolmente la diffusione di contenuti polarizzanti. TikTok, ad esempio, è stato criticato per come i suoi sistemi possano spingere rapidamente verso video radicali o teorici del complotto se l’utente mostra anche un minimo interesse iniziale. [Fonte: The Social Dilemma – Center for Humane Technology]

Tutto questo accade grazie a una sofisticata combinazione di machine learning, analisi predittiva e raccolta massiva di dati personali. E qui entra in gioco la questione della privacy. I dati che cediamo ai social – anche solo interagendo con un contenuto – vengono elaborati per ricostruire gusti, fragilità, tendenze emotive. L’obiettivo è mantenerci attivi e presenti il più a lungo possibile. Ma a quale prezzo?

Nel nostro articolo “IA e social media: algoritmi che ci guidano”, abbiamo già esplorato i meccanismi che regolano queste dinamiche. Un altro articolo utile per approfondire i pericoli informativi è “Fake News e IA: una guerra informativa”.

A preoccupare non è solo la profilazione. Anche i cosiddetti bias algoritmici giocano un ruolo. Gli algoritmi non sono neutrali: apprendono da dati umani, spesso imperfetti. Se un certo tipo di contenuto è stato premiato in passato, continuerà a esserlo, rafforzando tendenze già presenti e penalizzando diversità di visione. È così che si costruiscono dinamiche che favoriscono alcuni gruppi e ne marginalizzano altri.

L’intelligenza artificiale, nei social, ha due volti. Da un lato, ci permette di scoprire nuovi contenuti, connetterci con chi condivide interessi simili, vivere esperienze digitali più fluide. Dall’altro, può diventare una lente deformante, che ci mostra solo una parte della realtà, quella che ci fa rimanere.

Per affrontare questa complessità, serve consapevolezza. Serve una alfabetizzazione digitale che aiuti le persone a riconoscere i meccanismi sottostanti, a interrogarsi sul perché vediamo certi contenuti e non altri. Solo così possiamo passare da utenti passivi a cittadini digitali critici.

Il futuro dei social media non dipende solo dalla tecnologia, ma da come decidiamo di usarla e regolarla. E da quanto vogliamo comprendere ciò che si nasconde dietro ogni scroll.

📚 Vuoi approfondire l’Intelligenza Artificiale?

Scopri i nostri articoli fondamentali, ideali per iniziare o orientarsi nel mondo dell’IA:

📬 Ricevi il meglio ogni venerdì

Visita la pagina Iscriviti alla newsletter e scegli la versione che preferisci (italiano o inglese).

Lascia un commento

it_IT