23/05/22

A proposito di fake news. 1bis: le macchine intelligenti (di Fabio Marzocca)*

Proprio mentre sto sviluppando il problema delle fake news sotto vari aspetti e complessità, ecco che l'amico Fabio Marzocca scrive sul suo magnifico blog un interessantissimo articolo sull'intelligenza artificiale che ci  viene ormai propinata come una vera e propria "mente pensante".

Come abbiamo già fatto notare, quanto entusiasticamente annunciato un po' dovunque NON è assolutamente vero. Il computer -o robot che sia- rimane solo e soltanto una creazione dell'uomo, un suo "servo" rapidissimo e preciso. Ma è sempre l'uomo che decide cosa deve fare la macchina e in che modo. Illudersi troppo sulle capacità di un cervello artificiale per poter risolvere problemi di cui non riusciamo a venire a capo non può che portare, inesorabilmente, a un degrado delle capacità deduttive e creative dell'uomo del futuro.

A ben vedere, perfino un vegetale (e forse anche un minerale su tempi più lunghi) è decisamente più avanti di una qualsiasi macchina intelligente che l'uomo possa creare. Pensiamo solo a come sappia sfruttare sapientemente e completamente l'anidride carbonica con l'aiuto della sola energia solare. Se ne fossimo capaci noi... di questi tempi!

Ecco l'articolo e buona lettura

Artificiale, ma non chiamatela Intelligenza

11 commenti

  1. Fabio Marzocca

    Grazie Enzo!
    Saluti a tutti.

     

    Fabio

  2. givi

    Grazie a voi: Fabio che l'ha scritto ed Enzo che l'ha segnalato.

  3. Alberto Salvagno

    Interessante articolo, ma tendo sempre a diffidare di affermazioni troppo categoriche tipo: "La creatività è ciò che distingue veramente l’Homo Sapiens dalle altre specie, e una macchina non potrà mai essere “creativa” nel senso umano del termine".
    Se un computer, seguendo le istruzioni di un algoritmo, compone un brano musicale, io non sarei tanto sicuro che non compia in definitiva lo stesso processo che compie un essere umano istruito in un conservatorio. Né trovo una vera differenza tra il mio maestro di scacchi, campione internazionale fatto di carne e ossa, e l'AI che comunque mi sconfigge regolarmente. Entrambi basano la loro bravura su una grande esperienza di gioco che io non ho o forse su dei circuiti di cui madre natura non mi ha dotato, o forse non ho appositamente sviluppato. Mah!

  4. Daniela

    Il "mai" va certamente interpretato in tempi umani, che solitamente non vanno oltre qualche decennio. Diciamo che, sulla base di come funzionano oggi gli algoritmi che chiamiamo intelligenza artificiale (ma anche il machine learning e il deep learning, che non sono alimentati da semplici dati, come la IA, bensì da istruzioni per interpretare i dati), non c'è possibilità che sviluppino la creatività di cui è istintivamente capace il cervello umano. E' questo, per esempio, il motivo per il quale non sono in commercio auto a guida completamente autonoma (quelle nelle quali il passeggero potrebbe inserire la destinazione e poi addormentarsi) né è previsto che lo saranno "mai": nessun algoritmo, infatti, può essere in grado di valutare situazioni impreviste e imprevedibili, ovvero quelle che accadono talmente di rado o che non sono mai accadute prima d'ora, sulle quali pertanto non esistono dati.

    Nel gioco degli scacchi, invece, non c'è creatività, ma "solo" la capacità di valutare le possibili mosse e contromosse conseguenti alla prossima mossa. E in questo campo l'uomo sarà sempre perdente contro la IA perché gli manca la capacità di analizzare (alla velocità della luce) tutti i possibili esiti (di numero finito ma enorme) della prossima mossa. Ma per questo, in verità, non serve neanche la IA, essendo sufficiente un buon software di scacchi e un pc estremamente veloce e potente.

  5. caro Alberto,

    il punto chiave rimane: qualsiasi software DEVE essere stato creato da qualcuno che non può essere una macchina. La macchina fa solo quello che le hai detto. Sarà magari meglio dell'uomo medio (ci vuole poco, ormai...) ma un cervello di alto livello la deve aver pensata e creata. Aggiungo inoltre, che non si parla solo dell'homo sapiens, ma anche di tutto ciò che vive nella realtà dell'Universo. Trovami una macchina che senza input sappia eseguire la fotosintesi ! O una macchina che sappia bloccare il collasso di una stella di neutroni...

  6. Alberto Salvagno

    Lasciatemi fantascientificare. Penso a Kubrick, a Nietzsche, ad Hall e al Monolito fonte della conoscenza che spinge la specie umana alla sua evoluzione.
    Hall 9000 possiede già l'istinto di autoconservazione, ma è ancora un prodotto di noi sapiens; ne conosciamo la struttura e siamo ancora in grado di spegnerlo. A forza di machine learning e deep learning, però, saranno i nuovi computer (quantistici o chissà cos'altro) a elaborare i nuovi algoritmi. Questi, di mostruosa complessità, finiranno col sfuggirci di mano e solo allora dio (e il sacro) si potrà considerare morto o, al massimo, una antica superstizione dei restanti sapiens, ormai conservati in riserve come animali in estinzione.
    Il testimone lo passeremo alle AI magari già in lotta tra di loro a caccia di risorse per espandersi nell'Universo. Come le scimmie che si evolsero a contatto con il Monolito, saranno loro i nuovi superuomini nicciani (sorvoliamo sul gender) continuamente assetati di conoscenza.
    Non la vedo come una tragedia, ma come un accettabile e prevedibile sviluppo. L'alternativa è la completa  estinzone. Del resto qualche nostro atomo, già appartenuto a un ominoide, diventerà pure un costituente di un superuomo, se questo vi può consolare :-)

  7. Caro Albertone,il tuo commento mi ricorda un brevissimo e bellissimo racconto di fantascienza (forse è di Clarke, ma non ne sono sicuro...). In poche parole...

    Tutto è ormai pronto per il completamento del super computer di estensione multi galattica. Esso è stato costruito per potere rispondere alla domanda a cui nessuno è mai riuscito a dare una risposta. Il momento è arrivato e si può finalmente porre la domanda: "Esiste Dio?". Pochi millisecondi ed ecco la risposta: "ADESSO sì !"

    Io continuo a non credere in questo futuro... :wink:

  8. Daniela

    Neanch'io ci credo anche perché, per quanto "intelligenti", questi supercomputer dovranno pur alimentarsi di energia, quindi sarebbe sufficiente "staccare la spina".

    I rischi dell'intelligenza artificiale però esistono, sono molto gravi e più subdoli del supercomputer che vuole prendere il controllo: in una società totalitaria, per esempio, la IA può essere usata per rendere più efficiente la sorveglianza di massa in modo da individuare i soggetti potenzialmente sovversivi e prevenire loro azioni contro il potere. In una società capitalista, invece, può essere usata per massimizzare il profitto a scapito dei diritti fondamentali delle persone.

    Qualche esempio?

    • Algoritmi di riconoscimento facciale che in Cina vengono usati per monitorare gli spostamenti di chiunque (tramite le telecamere di videosorveglianza diffuse su tutto il territorio) e segnalare tutto ciò che appare sospetto. E alcuni possono addirittura rivelare le emozioni dall'espressione del viso (sono già utilizzati in alcune scuole per rilevare il grado di attenzione degli alunni)...
    • Algoritmi che aziende statunitensi utilizzano per organizzare il lavoro nel modo più efficiente: adattando, per esempio, i turni al flusso di clienti in tempo pressoché reale, impedendo in tal modo al lavoratore di organizzare la propria vita privata (non sai mai quale sarà l'orario di lavoro del giorno dopo fino all'ultimo momento, e magari non lavorerai o lavorerai poco, quindi disponibilità totale ma stipendio risicato)

    Ma non dobbiamo dimenticarci i grandi vantaggi che la IA sta portando (e sempre più porterà in futuro) alla ricerca scientifica in tutti i campi, primo fra tutti quello medico.

    Insomma rischi e benefici dipendono dal contesto socio-politico nel quale viene utilizzata la IA e già oggi sono ben visibili.

    A chi è interessato ad approfondire la conoscenza dell'argomento consiglio "Intelligenza artificiale - L'impatto sulle nostre vite, diritti e libertà" di Alessandro Longo e Guido Scorza. Una visione a 360 gradi di quello che è lo stato dell'arte oggi e delle prospettive future, scritta in modo chiaro e scorrevole.

  9. L'IA è come l'energia nucleare: può dare la vita, ma anche la morte. E' l'uomo che decide. La Scienza corre il rischio di affidarsi solo a lei, diminuendo il puro lavoro del cervello. Di esempi ce ne sono già tanti... E se il cervello non viene usato ne seguiranno macchine sempre più imperfette.

  10. Daniela

    Infatti il rischio più grande non è quello (fantascientifico) di macchine che prendano il controllo, ma di fare “atrofizzare” il cervello umano delegando le scelte alla IA. Ma la IA non “sceglie”: si limita a fare proiezioni statistiche sulla base di miliardi di dati storici e non può, per sua natura, tenere conto dei cambiamenti in atto.

    Pensiamo alla giustizia predittiva (algoritmi che, sulla base dell’esito dei processi passati, stimano la probabilità di successo di una causa o possono dare indicazioni ai magistrati su come dirimere una causa in corso)… se vi si facesse sistematicamente ricorso, non avremmo più sentenze rivoluzionarie, quelle che spingono (o dovrebbero spingere) il legislatore a prendere atto di determinati cambiamenti e a normarli.

    In campo medico, invece, il rischio è ancora più subdolo perchè la IA può essere fondamentale per riconoscere una patologia, ma se il medico ha un’idea diversa e vorrebbe prescrivere altre analisi o cure, con quale coraggio si assumerà la responsabilità di andare contro la diagnosi formulata dall’algoritmo? Se sbaglia l’algoritmo a lui non potrà essere imputata alcuna responsabilità, ma se sbaglia lui e l’algoritmo aveva ragione? Potremmo biasimare un medico che si allinea alle decisioni dell’algoritmo che gli hanno detto di usare? Eticamente forse sì, umanamente no. Con buona pace della “creatività” di molti medici grazie alla quale sono state fatte diagnosi giuste nonostante fossero contrarie a quelle che erano i sintomi più evidenti.

    Altro rischio enorme è quello del moltiplicarsi dei pregiudizi e delle discriminazioni già esistenti. Perchè se gli algoritmi si alimentano di dati che rispecchiano il passato, inevitabilmente rifletteranno gli errori passati nelle decisioni future. Amazon, per esempio, è stato costretto ad abbandonare un algoritmo utilizzato per la selezione del personale perchè, guarda caso, penalizzava le donne a favore degli uomini (strano eh?!). Ma questo è niente in confronto alla maggiore probabilità che ha un pellerossa (come chiunque sia “colorato”) rispetto a un viso-pallido di vedersi negata la libertà su cauzione negli USA a causa dell’algoritmo che gli associa una maggiore pericolosità sociale  (anche questo è strano eh?!?).

    E non pensiamo di essere immuni noi comuni mortali a certi meccanismi “perversi”… perchè ogni volta che consegnamo la nostra vita agli aggeggi “intelligenti” (gli assistenti vocali tipo Alexa, per esempio) solo perchè, essendo collegati al meteo, ci ricordano di prendere l’ombrello quando apriamo la porta di casa e probabilmente pioverà, contribuiamo a fare atrofizzare il nosto cervello e quello delle future generazioni. Con ciò non voglio demonizzare Alexa & co. che avranno certamente delle funzioni utili, ma usiamole con discernimento e spegniamo gli aggeggi “intelligenti” quando non servono. In caso contrario, non lamentiamoci se un giorno ce li ritroveremo in tribunale a testimoniare contro di noi (già tre volte negli USA le registrazioni di Alexa sono state usate in tribunale). Questo è certamente un caso limite, ma indicativo della pervasività di questi aggeggi.

    Forse è meglio tenere un ombrellino pieghevole in borsa 365 giorni all’anno…

Lascia un commento

*

:wink: :twisted: :roll: :oops: :mrgreen: :lol: :idea: :evil: :cry: :arrow: :?: :-| :-x :-o :-P :-D :-? :) :( :!: 8-O 8)

 

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.