Una stretta sull’architettura algoritmica che governa la selezione, la sequenza, l’amplificazione e la tempistica dei contenuti nelle piattaforme digitali. Il tutto per porre un freno a contenuti illegali, disinformazione e incitamento all’odio. È quanto prevede il disegno di legge del Pd, presentato mercoledì primo aprile al Senato – primi firmatari i senatori Antonio Nicita e Lorenzo Basso – che punta ad affrontare in modo organico i principali rischi dell’ecosistema digitale introducendo la dipendenza algoritmica, l’influenza algoritmica e la manipolazione algoritmica selettiva tra le pratiche vietate e colmando un vuoto normativo che oggi riguarda la tutela delle persone, la trasparenza dei sistemi e la responsabilità personale di chi progetta e governa piattaforme online e modelli di AI. Un tema reso ancor più attuale dalle ultime sentenze americane che hanno certificato le responsabilità per danni psicologici causati da algoritmi e funzioni progettate per creare assuefazione.

Le tre condotte algoritmiche vietate

Il disegno di legge, che si compone di 13 articoli, individua e definisce tre categorie distinte di condotte algoritmiche vietate, ciascuna con un proprio regime giuridico.

La prima è la dipendenza algoritmica — la capacità prevedibile e sistematica di specifiche architetture di design di indurre un uso compulsivo e compromettere la capacità dell’utente di interrompere volontariamente la fruizione del servizio. Il fondamento scientifico è consolidato: lo scroll infinito, l’autoplay, i sistemi di notifica a rinforzo variabile e i meccanismi di gamification come gli streaks e i badge sfruttano il circuito dopaminergico della ricompensa in modi che le neuroscienze cliniche hanno documentato e la ricerca epidemiologica ha correlato a un deterioramento misurabile degli indicatori di salute mentale, particolarmente negli adolescenti. La definizione del disegno di legge segue questa evidenza: la dipendenza algoritmica non è un’etichetta psicologica ma una qualificazione giuridica di scelte di design che, rispetto alle alternative disponibili, riducono sistematicamente l’autonomia dell’utente.

La seconda è l’influenza algoritmica — la modificazione non trasparente e non richiesta dell’ambiente informativo dell’utente attraverso la profilazione comportamentale e sistemi di raccomandazione ottimizzati per il coinvolgimento. A differenza della curatela editoriale, che è dichiarata e uniforme, l’influenza algoritmica opera individualmente, in modo continuo e al di sotto della soglia di consapevolezza dell’utente, costruendo le preferenze piuttosto che rispecchiarle. Il disegno di legge include espressamente la shadow suppression — il declassamento occulto di specifici contenuti, fonti o account senza notifica all’utente — come forma di influenza algoritmica quando realizzata in funzione della profilazione individuale e non in adempimento di obblighi di legge.

La terza è la manipolazione algoritmica selettiva — l’intervento intenzionale e non neutrale dell’operatore sulle logiche di amplificazione e soppressione per finalità politiche, commerciali o propagandistiche. Questa categoria è giuridicamente distinta dalle prime due: richiede un elemento di intenzionalità e un obiettivo specifico che va oltre la massimizzazione del coinvolgimento. I casi paradigmatici che hanno orientato la redazione sono ben documentati: l’amplificazione sistematica di specifici account politici su X (già Twitter) a seguito dell’acquisizione del 2022, e il caso TikTok/Romania del novembre 2024, in cui la Corte Costituzionale rumena ha annullato le elezioni presidenziali anche sulla base di relazioni dei servizi di intelligence che documentavano un’amplificazione coordinata e inautentica sulla piattaforma — il primo caso in cui la manipolazione algoritmica selettiva ha prodotto effetti giuridicamente rilevanti su un processo elettorale in uno Stato membro dell’Unione europea.

Condividere.
Exit mobile version