Categorie
Informatica

La nostra content policy

Microsoft, Meta mettiamoci in mezzo anche OpenAI, Google e le altre grandi aziende del settore pensano di avere il diritto (ma forse anche il dovere?) di decidere cosa sia meglio per noi, costringendoci ad un perenne stato di minorità. E se un tempo le decisioni erano demandate a degli esseri umani, adesso è l’algoritmo a decidere. Accusatore, giudice e boia.

Lo spunto per questa riflessione me l’ha dato il rifiuto opposto da DALL-E 2 e da Bing Image Creator alla mia richiesta di creare un’immagine (per un meme) anche abbastanza innocente. Se questi strumenti sono pensati per essere un supporto alla creatività dell’umano, perché non deve essere appunto l’umano a decidere cosa sia giusto e moralmente corretto? Perché deve essere lo strumento stesso ad imporre il suo punto di vista, quand’anche fosse condiviso o condivisibile, in modo assolutamente insindacabile?

Ovviamente la questione in punto di fatto è una quisquilia (fortunatamente, siamo ancora in grado di realizzare qualcosa a mano, anche se impiegandoci più tempo), ma apre il campo a problemi di ordine più generale che ormai fanno parte della nostra vita quotidiana.

Basti pensare agli algoritmi di moderazione dei social media, luogo dove oggi si svolge purtroppo gran parte del dibattito pubblico e perché no anche della comunicazione tra le persone, che spesso bloccano a ragione, ma tante volte bloccano contenuti legittimi senza alcuna possibilità di appello.

Il legislatore europeo è stato lungimirante e con il Regolamento (UE) sulla protezione dei dati personali, meglio conosciuto come GPDR, ha affermato il diritto di chiunque a “non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona” nonché quello di “di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione”.

Articolo 22
Processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione

1. L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.

2. Il paragrafo 1 non si applica nel caso in cui la decisione:
a) sia necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento;

b) sia autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato;

c) si basi sul consenso esplicito dell’interessato.

3. Nei casi di cui al paragrafo 2, lettere a) e c), il titolare del trattamento attua misure appropriate per tutelare i diritti, le libertà e i legittimi interessi dell’interessato, almeno il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione.

4. Le decisioni di cui al paragrafo 2 non si basano sulle categorie particolari di dati personali di cui all’articolo 9, paragrafo 1, a meno che non sia d’applicazione l’articolo 9, paragrafo 2, lettere a) o g), e non siano in vigore misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato.

Tuttavia, la diffusione che l’AI generativa sta già vivendo e vivrà in futuro, unita all’incontestabilità dell’algoritmo (stavolta anche per l’effettiva impossibilità di un appello umano) non potrà far altro che aprire nuove sfide e mettere a rischio “i diritti, le libertà e i legittimi interessi” di noi tutti.