Vantaggi e svantaggi degli algoritmi in una società sempre più digitale - Pensiero Critico

Cerca nel sito
Vai ai contenuti

Menu principale:

Vantaggi e svantaggi degli algoritmi in una società sempre più digitale

Teorie > Metodi > Intelligenza Artificiale
Puoi condividere questa pagina:
Il punto chiave

Le decisioni algoritmiche sono raffigurate come neutre, le decisioni algoritmiche si intendono efficienti, le decisioni algoritmiche sono presentate come obiettive e affidabili, e così via. Noi certamente abbiamo bisogno di ottenere una visione più ampia della struttura interna dei sistemi algoritmici in cui viviamo, ma abbiamo anche bisogno di sviluppare un'analisi della rilevanza culturale del concetto di algoritmo, ciò che questo rappresenta, ciò che fa e ciò che potrebbe rivelare. (David Beer)

_

Ma la notizia non è che la nostra Era iperconnessa sia stata conquistata dagli algoritmi: è che quegli stessi algoritmi non sono affatto neutri e oggettivi come siamo inclini a credere. E anzi discriminano, come e più dei decisori in carne e ossa che si propongono di correggere. (Fabio Chiusi)

_

Gli algoritmi non capiscono i compromessi, essi perseguono risolutamente singoli obiettivi. Gli algoritmi sono in grado di fare previsioni ma non eliminano la necessità di cautele al momento di fare connessioni tra causa ed effetto; essi non sono un sostituto per esperimenti controllati. Ma ciò che possono fare è estremamente potente: identificano strutture troppo sottili per essere rilevate attraverso l'osservazione umana, e utilizzano tali modelli per generare intuizioni precise e guidare meglio il processo decisionale. La sfida per noi è quella di capire i loro rischi e limitazioni e, attraverso una gestione efficace, sbloccare il loro notevole potenziale. (Michael Luca, Jon Kleinberg, Sendhil Mullainathan)

_

Gli algoritmi sbattono la porta in faccia a milioni di persone, spesso per le ragioni più insulse, e non offrono possibilità di appello. (Cathy O’Neil)

_

Uno studio sugli utenti di un sito australiano che affitta video online, ha confrontato i film che gli utenti mettono nella loro lista dei desiderata con i film che gli utenti guardano sulla piattaforma per davvero, mettendo in evidenza il fatto che gli individui vorrebbero guardare documentari d'informazione e film d'autore, ma in realtà consumano film di successo destinati al grande pubblico. La logica algoritmica sorveglia dappresso ciò che fanno gli individui poichè, da brava conservatrice qual è, reputa che essi raramente siano all'altezza dei loro desideri. Preferendo i comportamenti effettivi alle aspirazioni, gli algoritmi ci impongono questo realismo efficace. Imprigionandoci nel nostro conformismo. (Dominique Cardon)

Un giovane che resta disoccupato per una cattiva decisione di un algoritmo farà ancora più fatica a trovare lavoro

Le donne sono meno esposte degli uomini a pubblicità on line per lavori ben retribuiti
Che cos'è un algoritmo

Il termine "algoritmo" è famoso da quando Google è diventato il motore di ricerca più usato del mondo in virtù dell'efficacia del suo algoritmo di ricerca, infatti, la definizione che la stessa Google dà è la seguente:


Vuoi una risposta, non miliardi di pagine web. Gli algoritmi sono programmi informatici che cercano indizi per restituirti esattamente ciò che desideri. Per una normale ricerca esistono migliaia, se non milioni, di pagine web con informazioni utili. Gli algoritmi sono i processi informatici e le formule che trasformano le tue domande in risposte. Attualmente gli algoritmi di Google si basano su oltre 200 segnali univoci o "indizi" che consentono di intuire che cosa stai realmente cercando. Questi segnali includono elementi quali i termini presenti nei siti web, l'attualità dei contenuti, l'area geografica e il PageRank.


Come scrive il progettista Anthony Wing Kosner (vedi bibliografia), nel recensire il libro "The formula" di Luke Dormehl:


In senso formale, gli algoritmi dovrebbero contemplare tutte le variazioni di un dato problema. Ma come spiega l'utente ЯegDwight: "Alcuni problemi sono difficili e si potrebbe non essere in grado di ottenere una soluzione ragionevole in un tempo accettabile. In questi casi spesso si può ottenere una soluzione non troppo cattiva molto più velocemente, applicando alcune scelte arbitrarie (ipotesi ragionevoli): questa è una euristica. Una euristica è ancora una sorta di algoritmo, ma uno di quelli che non esplorerà tutti gli stati possibili del problema, o inizierà esplorando quelli più probabili."


Per questo motivo gli algoritmi non sempre raggiungono il loro scopo, ma vanno continuamente migliorati e modificati per mantenere elevata la qualità dei loro risultati. Ad esempio, Google è costretta a intervenire ogni volta che malfattori di vario genere cercano di sfruttare l'algoritmo per i loro fini (come nel caso di un sito di neonazisti che cercava di sfruttarlo per apparire in cima alla lista dei risultati quando qualcuno ricerca notizie sull'Olocausto). Da qualche anno l'algoritmo di Google viene aggiornato non più da umani, ma da strumenti di Intelligenza artificiale basati sul machine learning.

Ma, a parte Google e il suo famoso algoritmo, l'espansione degli algoritmi è stata tumultosa e si può dire che oggi non vi sia settore economico, industriale o sociale che non ne faccia uso.

Svantaggi degli algoritmi

La ricercatrice in matematica Cathy O'Neill, nel suo libro "Weapons of Math destruction" (vedi bibliografia Chalabi, Cole), mette in luce alcuni lati oscuri dei modelli matematici che governano la società, evidenziando in che modo l'intreccio di Big Data e algoritmi determina certi risultati:


  1. Accesso alle Università USA: l'intero sistema di accesso ai College USA è determinato da algoritmi: da una parte il posizionamento dei College (College Ranking) viene influenzato dagli stessi College attraverso la pubblicazione di report o notizie sui media mentre, dall'altra, le famiglie americane di elìte cercano di contrastare le difficoltà dei test di ammissione (costruiti da algoritmi), quali GPA, SAT e ACT, suggerendo ai loro figli di differenziarsi facendo qualche attività extrascolastica

  2. Pubblicità mirata: gli effetti del "targeted advertising" consente, specialmente agli inserzionisti più aggressivi, di colpire i clienti più vulnerabili alle truffe

  3. Polizia predittiva: negli USA l'eguaglianza di fronte alla legge viene negata e sostituita da un algoritmo che applica articoli di legge diversi a comunità differenti. La polizia si concentra in modo sproporzionato sui crimini nei quartieri disagiati, ignorando quelli dei ricchi, con sentenze più dure per gli afroamericani.

  4. Selezione del personale: vede l'impiego di "algoritmi discriminatori" per la selezione del personale da assumere che rigettano automaticamente le domande di lavoro avanzate da determinate classi sociali

  5. Valutazione degli insegnanti: gli algoritmi usati per la valutazione della qualità degli insegnanti, a volte discriminano insegnanti eccellenti

  6. Concessione di credito bancario: gli algoritmi che assegnano un punteggio ai clienti, determinando il loro accesso a mutui e assicurazioni, spesso escludono quelli che vengono ritenuti i "perdenti della società"

Secondo il giornalista Fabio Chiusi gli algoritmi possono rivestire i pregiudizi di una scientifica correttezza. Egli scrive (vedi bibliografia):

[con gli algoritmi] finiamo per essere giudicati non sulla base di chi siamo, ma a chi somigliamo, o da dove veniamo, o in cosa crediamo. Nel tritacarne algoritmico, l’individuo diventa sacrificabile alle regolarità di gruppo; e se fa eccezione, peggio per lui. Questa, insegnano la sociologia e la storia, è la matrice di ogni razzismo, di ogni ingiustizia sociale.
Origine degli algoritmi
La scoperta degli algoritmi proviene dalle origini dell'aritmetica che avvenne, parallelamente, sia nel mondo occidentale (babilonese) sia nel mondo orientale (India e Cina) intorno al 2000 a.C. L'esigenza che gli antichi sentivano come utile per i loro scopi commerciali pare sia stata quella di composizione e scomposizione di un numero nei suoi fattori. (vedi box con una delle prime tavolette babilonesi: Plimpton 322)
All'origine degli algoritmi la Tavoletta babilonese Plimpton 322
babilonesi
Si ritiene che la tavoletta sia stata scritta intorno al 1800 a.C. Il contenuto principale di Plimpton 322 è una tabella di numeri, con quattro colonne e quindici righe, in notazione sessagesimale babilonese.
Storia occidentale (semplificata) degli algoritmi e dei loro creatori
algorithms
Vantaggi degli algoritmi
Algoritmi aziendali
Amazon
Classico processo produttivo e distributivo aziendale
Processo produttivo e distributivo di aziende come Amazon guidato da algoritmi
Gli algoritmi offrono indubbi vantaggi nell'ottimizzazione di molti processi industriali e commerciali. L'immagine mostra uno schema di ordine generale secondo il quale molte organizzazioni ottimizzano, con appropriati algoritmi, il loro business (vedi bibliografia Granville). Il processo di produzione e distribuzione (supply chain) è organizzato su più fasi che impiegano vari tipi di algoritmi. Le fasi più importanti sono le seguenti:

  1. Ottimizzazione del processo produttivo e distributivo: Selezione dei siti dei magazzini per ridurre i costi di distribuzione; ottimizzazione degli acquisti di carburante per i furgoni di distribuzione; minimizzazione del tempo perduto nel traffico (richiede predizioni di traffico);
  2. Ottimizzazione prezzi e profitti
  3. Rilevazione frodi: per transazioni su carta di credito
  4. Categorizzazione prodotti: creazione di una tassonomia per categorizzare i prodotti al fine di costruire e mantenere un buon catalogo (può essere fatto con l'uso di algoritmi di tagging e indexing)
  5. Ottimizzazione pubblicità: automatizzazione Google Adwords per milioni di keywords, SEO e SEM
  6. Previsione di inventario
  7. Previsione vendite

Per l'elenco completo vedere l'articolo in bibliografia.
Alcuni dei principali algoritmi odierni
Nel 2006 la conferenza IEEE sul Data Mining aveva identificato i seguenti principali algoritmi (vedi bibliografia Van Cauwenberge):

  1. C4.5 (Decision Trees)
  2. k-Means (clustering)
  3. Support Vector Machines (SVM)
  4. Apriori
  5. Expectation Maximization (EM)
  6. PageRank
  7. AdaBoost
  8. k-Nearest Neighbors (kNN)
  9. Naive Bayes
  10. Classification and Regression Tree (CART)

Nel tempo molti altri algoritmi si sono aggiunti a questa lista (vedere articolo).
Algoritmi nell'informazione digitale
algoritmi
Cliccare per ingrandire
Gli algoritmi che dominano l'informazione e indirizzano i nostri comportamenti
Tutta l'informazione digitale usata dai singoli utenti (ma anche dalle imprese) si basa sulla valutazione (e misurazione algoritmica) di quattro parametri: popolarità, autorevolezza, reputazione e previsione comportamentale. Secondo il sociologo Dominique Cardon (vedi bibliografia), gli algoritmi governano il modo in cui l'informazione digitale viene costruita, e lo fanno con vari sistemi di misura. Cardon, nel libro "Cosa sognano gli algoritmi", li descrive:

  1. Misura della popolarità: si tratta della "audience" dei siti web, che permette di contare i visitatori unici (usando l'indirizzo IP del computer), soprattutto per determinare il valore dei banner pubblicitari. Tale rilevazione è esposta al rischio di manipolazioni, ad esempio da parte dei clickrobot che, secondo il Bot traffic report 2016, costituiscono il 51,8% dell'intero traffico. Come scrive Cardon (p.17):

    Se i sistemi di misura si perfezionano, essi devono difendersi da webmaster poco scrupolosi, da editori che ampliano artificialmente il perimetro del loro sito e, infine, dai click-robot

  2. Misura della autorevolezza: si propone di scoprire la qualità dell'informazione, essa misura il credito che un sito web riceve da altri siti che lo linkano ed è particolarmente importante in campo scientifico (ma non solo). Tale misura viene invalidata, in alcuni casi, dallo sfruttamento che malintenzionati fanno dell'algoritmo di google, falsando a loro vantaggio errori presenti nell'algoritmo di Google. Come scrive Cardon (p.18):

    Inedita nella storia dei media, questa soluzione è molto audace. Prima di Google, i primi motori di ricerca (Lycos, Altavista) erano lessicali: davano un miglior posto in classifica ai siti le cui pagine contenevano il maggior numero di volte la parola chiave della richiesta dell'utente. Sergey Brin e Larry Page, i fondatori di Google, hanno opposto a questa pratica inefficace tutt'altra strategia: piuttosto che chiedere all'algoritmo di capire ciò che dice la pagina, hanno proposto di misurare la "forza sociale" che la pagina esercita sulla struttura del web. Internet è una rete caratterizzata da una struttura che fa del web un tessuto di testi rinviantisi l'uno all'altro tramite link ipertestuali. L'algoritmo del motore di ricerca dà una gerarchia alle informazioni sulla base dell'idea che un sito che riceve un link da un altro sito, riceve contestualmente una prova di considerazione, la quale gli conferisce autorevolezza.

  3. Misura della reputazione: si propone di misurare il seguito sociale di un singolo (o di un'impresa), cioè la reputazione di soggetti pubblici o privati, presenti sul web, attraverso il numero di informazioni pubblicate che altri utenti hanno commentato o condiviso sui social network. Tale misura viene invalidata dal fenomeno dell'Astroturfing, cioè dalla propaganda a base di recensioni costruite a tavolino. Scrive Cardon (p.23).

    Con l'inserzione, nella maggior parte dei siti di e-commerce, del dispositivo "recensioni e commenti", un altro insieme di sistemi metrici della reputazione è andato ad affiancarsi, su Internet, ai metodi di misurazione del social web. Hotel, ristoranti, prodotti culturali, e a breve tutto quanto sia possibile valutare e a cui è possibile dare un voto, ricorrono ormai all'aiuto degli interessati che inserendo le proprie valutazioni vanno ad arricchire un'opinione collettiva.

  4. Misura della previsione comportamentale: si propone di apprendere automaticamente (con strumenti di machine learning) quali decisioni di acquisto (o di voto) l'utente potrebbe maturare. Essa misura l'efficacia dei modelli probabilistici dei sistemi di recommender che indirizzano i comportamenti degli utenti a seguito della loro profilazione digitale. Le tracce che ogni utente lascia su internet vengono amplificate e rilanciate dai cosiddetti 3rd-party cookies, cioè cookies che seguono gli utenti nella loro navigazione. Esiste comunque una proposta 2017 della Commissione europea per riformare la direttiva e-privacy (ePD) ed eliminare questo problema. Scrive Cardon (p.26):

    Questa famiglia ambisce a personalizzare i calcoli a partire dalle tracce di attività degli internauti onde incitarli ad agire in una direzione piuttosto che in un'altra. Come nei sistemi di raccomandazione di Amazon o Netflix [...]  L'algoritmo "impara"  confrontando un profilo con quello di altri internauti che hanno effettuato la sua stessa azione. In modo probabilistico, esso ipotizza che una persona potrebbe fare tale o talaltra cosa che non ancora fatto, visto che, invece, delle persone che le somigliano l'hanno già fatta. Il futuro dell'internauta viene predetto grazie al passato di coloro che gli somigliano.

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

La razionalità richiede impegno personale!
Iscriviti alla Newsletter di pensierocritico.eu per ricevere in anteprima nuovi contenuti e aggiornamenti:
Bibliografia (chi fa delle buone letture è meno manipolabile)


Scrivi, se non sei d'accordo
Se ritenete che le tesi del "punto chiave" non vengano sufficientemente supportate dagli argomenti presenti in questa pagina potete esprimere il vostro parere (motivandolo).
Inviate una email con il FORM. Riceverete una risposta. Grazie della collaborazione.
Libri consigliati
a chi vuole migliorare la propria conoscenza degli algoritmi
Pedro Domingos
Cathy O'Neil
Dominique Cardon
Cosa si può fare per diventare "pensatori critici"
E' stato ampiamente dimostrato negli ultimi 30-40 anni da parecchi psicologi tra i quali Amos Tversky, Daniel Kahneman, Gerd Gigerenzer e altri, che l'essere umano crede di essere razionale ma non lo è. Quando un individuo si trova a prendere decisioni in condizioni di incertezza il più delle volte usa un "pensiero intuitivo" facendo ricorso alle euristiche, cioè a scorciatoie mentali maturate nel corso dell'evoluzione. Nella maggior parte delle situazioni della vita quotidiana le decisioni euristiche si rivelano giuste ma in situazioni più complesse, apparse solo con la modernità, le euristiche portano a distorsioni del giudizio (bias) che danno luogo a decisioni errate.
Secondo Daniel Kahneman (pp.464-465 di Pensieri lenti e veloci - Mondadori) il nostro pensiero intuitivo non è facilmente educabile e ostacola il riconoscimento dei segnali ambientali che in certi casi renderebbero necessario il passaggio a un pensiero razionale e critico. Un osservatore esterno è sempre meno coinvolto emotivamente di colui che prende decisioni e compie azioni. Occorre quindi impegnarsi a costruire una "società critica", nella quale ci siano "osservatori critici" che sappiano avvertirci dei pericoli insiti in certe situazioni decisionali. Questo è un compito primario delle Istituzioni che devono investire in programmi di formazione al "pensiero critico" degli educatori scolastici. A livello individuale, ecco alcune attività perseguibili:

  1. Atteggiamento critico: sforzarsi di assumere un atteggiamento critico contrastando la tendenza umana innata di saltare subito alle conclusioni e prendere decisioni impulsive. Per approfondire andare alla pagina: Atteggiamento critico 
  2. Lettura: diversi studi confermano che l'attività di lettura migliora l'attività del cervello contrastando i deficit cognitivi e l'invecchiamento cerebrale. Per approfondire andare alla pagina: Lettura e Cervello. Inoltre, il  miglioramento cerebrale viene potenziato dalla lettura critica dei testi (non narrativi). 
  3. Apprendimento linguistico: recenti studi hanno confermato che imparare lingue diverse dalla propria (anche in età avanzata) migliora il rendimento cerebrale. Per approfondire andare alla pagina: Bilinguismo e incremento cognitivo

__________________________________________________________________________________________________________________________________________________________

Pagina aggiornata il 10 giugno 2017

 
copyright 2012-2017 Licenza Creative Commons
I contenuti di pensierocritico.eu sono distribuiti con Licenza Creative Commons Attribuzione - Non commerciale - Condividi allo stesso modo 3.0 Italia.
Protected by Copyscape
Copyright 2015. All rights reserved.
Torna ai contenuti | Torna al menu