Privacy Policy Cookie Policy
Brain
brain
europa
critic
Coloro cui sfugge completamente l'idea che è possibile aver torto non possono imparare nulla, tranne la tecnica. (Gregory Bateson)
Vai ai contenuti
Vantaggi e svantaggi degli algoritmi in una società sempre più digitale
TEORIE > METODI > INTELLIGENZA ARTIFICIALE
Scopo di questa pagina
La scoperta degli algoritmi proviene dalle origini dell'aritmetica che avvenne, parallelamente, sia nel mondo occidentale (babilonese) sia nel mondo orientale (India e Cina) intorno al 2000 a.C. L'esigenza che gli antichi sentivano come utile per i loro scopi commerciali pare sia stata quella di composizione e scomposizione di un numero nei suoi fattori. Oggi gli algoritmi governano il modo in cui l'informazione digitale viene costruita, e lo fanno con vari sistemi di misura. Infatti gli algoritmi sono ormai tra noi, incuneati in molte attività umane e tutta l'informazione digitale usata dai singoli utenti (ma anche dalle imprese) si basa sulla valutazione (e misurazione algoritmica) di quattro parametri: popolarità, autorevolezza, reputazione e previsione comportamentale. Gli algoritmi offrono vantaggi e svantaggi, alcuni dei quali vengono esplicitati in questa pagina. Ad esempio il giornalista Tobias Rose-Stockwell, evidenzia la tendenza degli algoritmi a indirizzare la nostra attenzione verso notizie che stimolano le nostre paure irrazionali, le nostre abitudini malsane e i nostri bias cognitivi. In tal modo gli algoritmi cercano di ricavare un beneficio economico da tutte le relazioni che intratteniamo con il mondo dei mass media e dei social media. Egli scrive: "In molti modi questi algoritmi sono un riflesso di noi. Stanno mappando i comportamenti e le tendenze umane naturali - ciò che clicchiamo, per cosa ci indignamo, ciò che ci piacerà. Fanno parte di noi. Ma queste mappe includono alcune delle nostre peggiori preoccupazioni, paure irrazionali e cattive abitudini. Dobbiamo progettare questi algoritmi per tenere conto di loro. Abbiamo inavvertitamente creato un sistema multimediale che monetizza molti dei nostri difetti". Uno dei principali svantaggi degli algoritmi è che essi, a meno di autori molto critici e che si affidano ad altri per la loro valutazione, riproducono i pregiudizi di chi li crea.
svantaggi algoritmi
Nella selezione del personale vengono impiegati "algoritmi discriminatori" per il personale da assumere che rigettano automaticamente le domande di lavoro avanzate da determinate classi sociali.
Punti chiave
Le decisioni algoritmiche sono raffigurate come neutre, le decisioni algoritmiche si intendono efficienti, le decisioni algoritmiche sono presentate come obiettive e affidabili, e così via. Noi certamente abbiamo bisogno di ottenere una visione più ampia della struttura interna dei sistemi algoritmici in cui viviamo, ma abbiamo anche bisogno di sviluppare un'analisi della rilevanza culturale del concetto di algoritmo, ciò che questo rappresenta, ciò che fa e ciò che potrebbe rivelare. (David Beer)

_

Ma la notizia non è che la nostra Era iperconnessa sia stata conquistata dagli algoritmi: è che quegli stessi algoritmi non sono affatto neutri e oggettivi come siamo inclini a credere. E anzi discriminano, come e più dei decisori in carne e ossa che si propongono di correggere. (Fabio Chiusi)
_
Gli algoritmi non capiscono i compromessi, essi perseguono risolutamente singoli obiettivi. Gli algoritmi sono in grado di fare previsioni ma non eliminano la necessità di cautele al momento di fare connessioni tra causa ed effetto; essi non sono un sostituto per esperimenti controllati. Ma ciò che possono fare è estremamente potente: identificano strutture troppo sottili per essere rilevate attraverso l'osservazione umana, e utilizzano tali modelli per generare intuizioni precise e guidare meglio il processo decisionale. La sfida per noi è quella di capire i loro rischi e limitazioni e, attraverso una gestione efficace, sbloccare il loro notevole potenziale. (Michael Luca, Jon Kleinberg, Sendhil Mullainathan)

_

Gli algoritmi sbattono la porta in faccia a milioni di persone, spesso per le ragioni più insulse, e non offrono possibilità di appello. (Cathy O’Neil)

_

Uno studio sugli utenti di un sito australiano che affitta video online, ha confrontato i film che gli utenti mettono nella loro lista dei desiderata con i film che gli utenti guardano sulla piattaforma per davvero, mettendo in evidenza il fatto che gli individui vorrebbero guardare documentari d'informazione e film d'autore, ma in realtà consumano film di successo destinati al grande pubblico. La logica algoritmica sorveglia dappresso ciò che fanno gli individui poichè, da brava conservatrice qual è, reputa che essi raramente siano all'altezza dei loro desideri. Preferendo i comportamenti effettivi alle aspirazioni, gli algoritmi ci impongono questo realismo efficace. Imprigionandoci nel nostro conformismo. (Dominique Cardon)

_

[dall'introduzione al libro "The formula] E se tutto nella vita potesse essere ridotto a una semplice formula? E se i numeri fossero in grado di dirci con quali partner siamo stati abbinati meglio, non solo in termini di attrattiva, ma per un matrimonio impegnato a lungo termine? O se potessero dire quali film sarebbero i più grandi successi al botteghino e quali modifiche potrebbero essere apportate a quei film per renderli ancora più riusciti? O anche chi di noi rischia di commettere determinati crimini, e quando? Può sembrare il mondo della fantascienza, ma in realtà è solo la punta dell'iceberg in un mondo sempre più governato da algoritmi complessi e reti neurali. (Luke Dormehl)

_

Gli algoritmi riproducono i pregiudizi di chi li crea.

Che cos'è un algoritmo

Il termine "algoritmo" è famoso da quando Google è diventato il motore di ricerca più usato del mondo in virtù dell'efficacia del suo algoritmo di ricerca, infatti, la definizione che la stessa Google dà è la seguente:


Vuoi una risposta, non miliardi di pagine web. Gli algoritmi sono programmi informatici che cercano indizi per restituirti esattamente ciò che desideri. Per una normale ricerca esistono migliaia, se non milioni, di pagine web con informazioni utili. Gli algoritmi sono i processi informatici e le formule che trasformano le tue domande in risposte. Attualmente gli algoritmi di Google si basano su oltre 200 segnali univoci o "indizi" che consentono di intuire che cosa stai realmente cercando. Questi segnali includono elementi quali i termini presenti nei siti web, l'attualità dei contenuti, l'area geografica e il PageRank.


Ma come lavora quell'algoritmo? Ha un rapporto con la nostra domanda e la qualità della risposta? Pare di no, come scrive il social media specialist Francesco Marino (vedi bibliografia 2022):


Tra le tecniche utilizzate dalla SEO c’è una modalità di scrittura che non è proprio delle più intuitive. Vi sarà capitato di leggere qualche articolo che, prima di rispondere alla domanda per cui lo state leggendo, vi conferma ripetutamente che sta per farlo, che in quella pagina si trova proprio la soluzione al vostro problema, che viene citato per alcune righe prima di arrivare al punto della questione. Questa modalità di scrittura ha l’obiettivo di aumentare le possibilità di finire in prima pagina (ma la certezza non c’è mai, perché è l’algoritmo che decide), perché è un modo per raccontare all’intelligenza artificiale di Google che quel contenuto risolve proprio quel problema. E questo a prescindere dall’effettiva qualità di quella pagina.


Questa tecnica di SEO è la stessa che rende insopportabile la lettura di molte pagine tra le quali quelle di Aranzulla, nelle quali, prima di arrivare al punto, quasi ci si addormenta sulle ripetizioni (superflue per noi ma non per la SEO!). Come scrive il progettista Anthony Wing Kosner (vedi bibliografia), nel recensire il libro "The formula" di Luke Dormehl:


In senso formale, gli algoritmi dovrebbero contemplare tutte le variazioni di un dato problema. Ma come spiega l'utente ЯegDwight: "Alcuni problemi sono difficili e si potrebbe non essere in grado di ottenere una soluzione ragionevole in un tempo accettabile. In questi casi spesso si può ottenere una soluzione non troppo cattiva molto più velocemente, applicando alcune scelte arbitrarie (ipotesi ragionevoli): questa è una euristica. Una euristica è ancora una sorta di algoritmo, ma uno di quelli che non esplorerà tutti gli stati possibili del problema, o inizierà esplorando quelli più probabili."


Per questo motivo gli algoritmi non sempre raggiungono il loro scopo, ma vanno continuamente migliorati e modificati per mantenere elevata la qualità dei loro risultati. Ad esempio, Google è costretta a intervenire ogni volta che malfattori di vario genere cercano di sfruttare l'algoritmo per i loro fini (come nel caso di un sito di neonazisti che cercava di sfruttarlo per apparire in cima alla lista dei risultati quando qualcuno ricerca notizie sull'Olocausto). Da qualche anno l'algoritmo di Google viene aggiornato non più da umani, ma da strumenti di Intelligenza artificiale basati sul machine learning.

Ma, a parte Google e il suo famoso algoritmo, l'espansione degli algoritmi è stata tumultosa e si può dire che oggi non vi sia settore economico, industriale o sociale che non ne faccia uso.

In senso formale, gli algoritmi dovrebbero contemplare tutte le variazioni di un dato problema. Una euristica è anch'essa una sorta di algoritmo, ma uno di quelli che non esplorerà tutti gli stati possibili del problema, o inizierà esplorando quelli più probabili
Svantaggi degli algoritmi

La ricercatrice in matematica Cathy O'Neill, nel suo libro "Weapons of Math destruction" (vedi bibliografia Chalabi, Cole), mette in luce alcuni lati oscuri dei modelli matematici che governano la società, evidenziando in che modo l'intreccio di Big Data e algoritmi determina certi risultati:


  1. Accesso alle Università USA: l'intero sistema di accesso ai College USA è determinato da algoritmi: da una parte il posizionamento dei College (College Ranking) viene influenzato dagli stessi College attraverso la pubblicazione di report o notizie sui media mentre, dall'altra, le famiglie americane di elìte cercano di contrastare le difficoltà dei test di ammissione (costruiti da algoritmi), quali GPA, SAT e ACT, suggerendo ai loro figli di differenziarsi facendo qualche attività extrascolastica

  2. Pubblicità mirata: gli effetti del "targeted advertising" consente, specialmente agli inserzionisti più aggressivi, di colpire i clienti più vulnerabili alle truffe

  3. Polizia predittiva: negli USA l'eguaglianza di fronte alla legge viene negata e sostituita da un algoritmo che applica articoli di legge diversi a comunità differenti. La polizia si concentra in modo sproporzionato sui crimini nei quartieri disagiati, ignorando quelli dei ricchi, con sentenze più dure per gli afroamericani.

  4. Selezione del personale: vede l'impiego di "algoritmi discriminatori" per la selezione del personale da assumere che rigettano automaticamente le domande di lavoro avanzate da determinate classi sociali

  5. Valutazione degli insegnanti: gli algoritmi usati per la valutazione della qualità degli insegnanti, a volte discriminano insegnanti eccellenti

  6. Concessione di credito bancario: gli algoritmi che assegnano un punteggio ai clienti, determinando il loro accesso a mutui e assicurazioni, spesso escludono quelli che vengono ritenuti i "perdenti della società"

Secondo il giornalista Fabio Chiusi gli algoritmi possono rivestire i pregiudizi di una scientifica correttezza. Egli scrive (vedi bibliografia):

[con gli algoritmi] finiamo per essere giudicati non sulla base di chi siamo, ma a chi somigliamo, o da dove veniamo, o in cosa crediamo. Nel tritacarne algoritmico, l’individuo diventa sacrificabile alle regolarità di gruppo; e se fa eccezione, peggio per lui. Questa, insegnano la sociologia e la storia, è la matrice di ogni razzismo, di ogni ingiustizia sociale.

Le donne sono meno esposte degli uomini a pubblicità on line per lavori ben retribuiti
Un giovane che resta disoccupato per una cattiva decisione di un algoritmo farà ancora più fatica a trovare lavoro
Algoritmi e società: il tritacarne algoritmico

Un'analisi italiana sugli algoritmi (Valigia Blu) è stata fatta da Bruno Saetta (vedi bibliografia). Riguardo alla sorveglianza digitale (Data surveillance) essa spiega molto chiaramente come funzionano gli algoritmi e la differenza tra identificazione e identità digitale.

Secondo il giornalista Fabio Chiusi gli algoritmi possono rivestire i pregiudizi di una scientifica correttezza, e scrive: [con gli algoritmi] finiamo per essere giudicati non sulla base di chi siamo, ma a chi somigliamo, o da dove veniamo, o in cosa crediamo. Nel tritacarne algoritmico, l’individuo diventa sacrificabile alle regolarità di gruppo; e se fa eccezione, peggio per lui.
Storia occidentale (semplificata) degli algoritmi e dei loro creatori
Origine degli algoritmi
La scoperta degli algoritmi proviene dalle origini dell'aritmetica che avvenne, parallelamente, sia nel mondo occidentale (babilonese) sia nel mondo orientale (India e Cina) intorno al 2000 a.C. L'esigenza che gli antichi sentivano come utile per i loro scopi commerciali pare sia stata quella di composizione e scomposizione di un numero nei suoi fattori. (vedi box con una delle prime tavolette babilonesi: Plimpton 322)
L'esigenza che gli antichi sentivano come utile per i loro scopi commerciali pare sia stata quella di composizione e scomposizione di un numero nei suoi fattori
All'origine degli algoritmi la Tavoletta babilonese Plimpton 322
babilonesi
Si ritiene che la tavoletta sia stata scritta intorno al 1800 a.C. Il contenuto principale di Plimpton 322 è una tabella di numeri, con quattro colonne e quindici righe, in notazione sessagesimale babilonese.
Vantaggi degli algoritmi
Processo produttivo e distributivo di aziende come Amazon guidato da algoritmi
Gli algoritmi offrono indubbi vantaggi nell'ottimizzazione di molti processi industriali e commerciali. L'immagine mostra uno schema di ordine generale secondo il quale molte organizzazioni ottimizzano, con appropriati algoritmi, il loro business (vedi bibliografia Granville). Il processo di produzione e distribuzione (supply chain) è organizzato su più fasi che impiegano vari tipi di algoritmi. Le fasi più importanti sono le seguenti:

  1. Ottimizzazione del processo produttivo e distributivo: Selezione dei siti dei magazzini per ridurre i costi di distribuzione; ottimizzazione degli acquisti di carburante per i furgoni di distribuzione; minimizzazione del tempo perduto nel traffico (richiede predizioni di traffico);
  2. Ottimizzazione prezzi e profitti
  3. Rilevazione frodi: per transazioni su carta di credito
  4. Categorizzazione prodotti: creazione di una tassonomia per categorizzare i prodotti al fine di costruire e mantenere un buon catalogo (può essere fatto con l'uso di algoritmi di tagging e indexing)
  5. Ottimizzazione pubblicità: automatizzazione Google Adwords per milioni di keywords, SEO e SEM
  6. Previsione di inventario
  7. Previsione vendite

Per l'elenco completo vedere l'articolo in bibliografia.
Algoritmi aziendali
Amazon
Classico processo produttivo e distributivo aziendale
Gli algoritmi indirizzano l'attenzione umana
Il giornalista Tobias Rose-Stockwell (vedi bibliografia), evidenzia la tendenza degli algoritmi a indirizzare la nostra attenzione verso notizie che stimolano le nostre paure irrazionali, le nostre abitudini malsane e i nostri bias cognitivi. In tal modo gli algoritmi cercano di ricavare un beneficio economico da tutte le relazioni che intratteniamo con il mondo dei mass media e dei social media. Egli scrive:

In molti modi questi algoritmi sono un riflesso di noi. Stanno mappando i comportamenti e le tendenze umane naturali - ciò che clicchiamo, per cosa ci indignamo, ciò che ci piacerà. Fanno parte di noi. Ma queste mappe includono alcune delle nostre peggiori preoccupazioni, paure irrazionali e cattive abitudini. Dobbiamo progettare questi algoritmi per tenere conto di loro. Abbiamo inavvertitamente creato un sistema multimediale che monetizza molti dei nostri difetti.
In che modo gli algoritmi "vedono" ogni essere umano
Cliccare per approfondire
Traffico internet umano e artificiale (BOT)
Soltanto il 62% del traffico globale di internet è generato da esseri umani, il restante 37,8% è invece generato da bot ossia, traffico automatizzato. (Cliccare per approfondire)
Gli algoritmi sono progettati per indirizzare la nostra attenzione verso notizie che stimolano le nostre paure irrazionali, le nostre abitudini malsane e i nostri bias cognitivi. In tal modo gli algoritmi cercano di ricavare un beneficio economico da tutte le relazioni che intratteniamo con il mondo dei mass media e dei social media
Gli algoritmi che dominano l'informazione e indirizzano i nostri comportamenti
Tutta l'informazione digitale usata dai singoli utenti (ma anche dalle imprese) si basa sulla valutazione (e misurazione algoritmica) di quattro parametri: popolarità, autorevolezza, reputazione e previsione comportamentale. Secondo il sociologo Dominique Cardon (vedi bibliografia), gli algoritmi governano il modo in cui l'informazione digitale viene costruita, e lo fanno con vari sistemi di misura. Cardon, nel libro "Cosa sognano gli algoritmi", li descrive:

  1. Misura della popolarità: si tratta della "audience" dei siti web, che permette di contare i visitatori unici (usando l'indirizzo IP del computer), soprattutto per determinare il valore dei banner pubblicitari. Tale rilevazione è esposta al rischio di manipolazioni, ad esempio da parte dei clickrobot che, secondo il Bad Bot Report 2019 , nel 2018 hanno costituito il 37,9% dell'intero traffico. Come scrive Cardon (p.17):

    Se i sistemi di misura si perfezionano, essi devono difendersi da webmaster poco scrupolosi, da editori che ampliano artificialmente il perimetro del loro sito e, infine, dai click-robot

  2. Misura della autorevolezza: si propone di scoprire la qualità dell'informazione, essa misura il credito che un sito web riceve da altri siti che lo linkano ed è particolarmente importante in campo scientifico (ma non solo). Tale misura viene invalidata, in alcuni casi, dallo sfruttamento che malintenzionati fanno dell'algoritmo di google, falsando a loro vantaggio errori presenti nell'algoritmo di Google. Come scrive Cardon (p.18):

    Inedita nella storia dei media, questa soluzione è molto audace. Prima di Google, i primi motori di ricerca (Lycos, Altavista) erano lessicali: davano un miglior posto in classifica ai siti le cui pagine contenevano il maggior numero di volte la parola chiave della richiesta dell'utente. Sergey Brin e Larry Page, i fondatori di Google, hanno opposto a questa pratica inefficace tutt'altra strategia: piuttosto che chiedere all'algoritmo di capire ciò che dice la pagina, hanno proposto di misurare la "forza sociale" che la pagina esercita sulla struttura del web. Internet è una rete caratterizzata da una struttura che fa del web un tessuto di testi rinviantisi l'uno all'altro tramite link ipertestuali. L'algoritmo del motore di ricerca dà una gerarchia alle informazioni sulla base dell'idea che un sito che riceve un link da un altro sito, riceve contestualmente una prova di considerazione, la quale gli conferisce autorevolezza.

  3. Misura della reputazione: si propone di misurare il seguito sociale di un singolo (o di un'impresa), cioè la reputazione di soggetti pubblici o privati, presenti sul web, attraverso il numero di informazioni pubblicate che altri utenti hanno commentato o condiviso sui social network. Tale misura viene invalidata dal fenomeno dell'Astroturfing, cioè dalla propaganda a base di recensioni costruite a tavolino. Scrive Cardon (p.23).

    Con l'inserzione, nella maggior parte dei siti di e-commerce, del dispositivo "recensioni e commenti", un altro insieme di sistemi metrici della reputazione è andato ad affiancarsi, su Internet, ai metodi di misurazione del social web. Hotel, ristoranti, prodotti culturali, e a breve tutto quanto sia possibile valutare e a cui è possibile dare un voto, ricorrono ormai all'aiuto degli interessati che inserendo le proprie valutazioni vanno ad arricchire un'opinione collettiva.

  4. Misura della previsione comportamentale: si propone di apprendere automaticamente (con strumenti di machine learning) quali decisioni di acquisto (o di voto) l'utente potrebbe maturare. Essa misura l'efficacia dei modelli probabilistici dei sistemi di recommender che indirizzano i comportamenti degli utenti a seguito della loro profilazione digitale. Le tracce che ogni utente lascia su internet vengono amplificate e rilanciate dai cosiddetti 3rd-party cookies, cioè cookies che seguono gli utenti nella loro navigazione. Esiste comunque una proposta 2017 della Commissione europea per riformare la direttiva e-privacy (ePD) ed eliminare questo problema. Scrive Cardon (p.26):

    Questa famiglia ambisce a personalizzare i calcoli a partire dalle tracce di attività degli internauti onde incitarli ad agire in una direzione piuttosto che in un'altra. Come nei sistemi di raccomandazione di Amazon o Netflix [...]  L'algoritmo "impara"  confrontando un profilo con quello di altri internauti che hanno effettuato la sua stessa azione. In modo probabilistico, esso ipotizza che una persona potrebbe fare tale o talaltra cosa che non ancora fatto, visto che, invece, delle persone che le somigliano l'hanno già fatta. Il futuro dell'internauta viene predetto grazie al passato di coloro che gli somigliano.
Cosa misurano gli algoritmi nell'informazione digitale
Cliccare per ingrandire
Tutta l'informazione digitale usata dai singoli utenti (ma anche dalle imprese) si basa sulla valutazione (e misurazione algoritmica) di quattro parametri: popolarità, autorevolezza, reputazione e previsione comportamentale
La razionalità richiede impegno personale!
Iscriviti alla Newsletter di pensierocritico.eu per ricevere in anteprima nuovi contenuti e aggiornamenti:
Bibliografia (chi fa delle buone letture è meno manipolabile)
Guarda le pagine correlate
Scrivi, se non sei d'accordo
Se ritenete che le tesi del "punto chiave" non vengano sufficientemente supportate dagli argomenti presenti in questa pagina potete esprimere il vostro parere (motivandolo).
Inviate una email con il FORM. Riceverete una risposta. Grazie della collaborazione.
Libri consigliati
a chi vuole migliorare la propria conoscenza degli algoritmi
Spesa annua pro capite in Italia per gioco d'azzardo 1.583 euro, per l'acquisto di libri 58,8 euro (fonte: l'Espresso 5/2/17)

Pagina aggiornata il 3 settembre 2022

creative commons
Quest'opera è distribuita con Licenza Creative Commons Attribuzione 2.5 Generico
Quest'opera è distribuita con Licenza Creative Commons Attribuzione 2.5 Generico
Torna ai contenuti