Il blog di didattica per la scuola primaria
banner

Breve storia dell’intelligenza artificiale

Quando nasce l’intelligenza artificiale? Quali benefici ci porterà e quali pericoli nasconde? In questo articolo illustreremo la storia dell’intelligenza artificiale e le sue prospettive future.

L’intelligenza artificiale (IA) è un campo di ricerca che si interessa allo sviluppo di macchine (computer) dotate di capacità di apprendimento e adattamento autonome, comparabili cioè alle capacità gli esseri umani.

Le aree di studio dell’IA sono:

  • il ragionamento e l’acquisizione della conoscenza;
  • la comunicazione e l’integrazione con oggetti ed esseri viventi;
  • l’apprendimento autonomo.

L’intelligenza artificiale secondo l’Unione Europea 

Poco più di due anni fa, nel febbraio 2020, la Commissione Europa ha diffuso il Libro bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia.

Come noto, con il termine “libro bianco” si indica solitamente un rapporto ufficiale pubblicato da un governo nazionale su un argomento di particolare importanza per i cittadini.

Infatti, partendo da questo documento, l’Unione Europea intende perseguire due importanti obiettivi:

  • la tutela dei diritti dei consumatori;
  • la promozione dell’innovazione nel campo dell’intelligenza artificiale.

Sempre secondo l’Unione Europea, è evidente che l’intelligenza artificiale avrà un impatto sempre più marcato nella vita delle persone.

Tra i potenziali benefici attesi:

  • migliore assistenza sanitaria (diagnosi più precise, prevenzione delle malattie ecc.);
  • aumento di efficienza in agricoltura e di produttività industriale;
  • miglioramento della sicurezza dei cittadini.

Ma la diffusione dell’IA comporterà anche una serie pericoli di rischi da evitare:

  • violazione della privacy,
  • discriminazioni;
  • criminalità;
  • ecc.

Quando nasce il concetto di “intelligenza artificiale”?

Nel 1950 il matematico inglese Alan Turing pubblicò l’articolo Computing machinery and intelligence, nel quale descrisse un modo per capire quando una macchina può essere definita “intelligente”.

Per superare il cosiddetto ”test di Turing”, un calcolatore dovrebbe essere in grado di:

  • elaborare il linguaggio naturale (essere in grado di comunicare);
  • rappresentare la conoscenza (immagazzinare le informazioni);
  • ragionare in maniera automatica (utilizzare le informazioni immagazzinate per rispondere a domande e trarre nuove conclusioni);
  • apprendere in maniera automatica (adattarsi alle circostanze, scoprire nuovi modelli).

Il test di Turing è stato ampiamente citato al cinema (ad esempio in Blade Runner).

L’interesse di Turing non era un caso isolato. Con l’introduzione dei primi computer, dopo la Seconda guerra mondiale, molti scienziati cominciarono a chiedersi se le “macchine” possono realmente pensare.

La storia dell’intelligenza artificiale intesa come campo di ricerca inizia con la conferenza Dartmouth Summer Research Project on Artificial Intelligence del 1956 (in seguito indicata come “Conferenza di Dartmouth”.

Tale conferenza si tenne presso il Dartmouth College durante il periodo estivo e vi parteciparono ricercatori già affermati (come Claude Shannon, il “padre” della teoria dell’informazione) o destinati a diventare famosi nel proprio settore di competenza (come Marvin Minsky e John McCarthy).

Gli sviluppi successivi furono promettenti, ad esempio vennero realizzati programmi in grado di dimostrare alcuni teoremi matematici o di giocare a scacchi.

Il linguaggio di riferimento era il LISP (che nei decenni ha influenzato numerosi linguaggio di programmazione).

Alcuni ricercatori, come Seymour Papert, partendo dall’IA svilupparono un linguaggio di programmazione per aiutare i bambini e pensare in maniera matematica, il Logo (ne abbiamo scritto qui).

Fino alla fine degli anni ’60 ci furono grandi aspettative sugli sviluppi dell’intelligenza artificiale. Il film che più rappresenta questa “tendenza” è certamente 2001: Odissea nello spazio.

Dagli anni ’70 ad oggi

I risultati direttamente “applicabili” nel mondo reale, però, non arrivarono subito. Per esempio, non si riusciva a creare un buon traduttore automatico (inglese / altre lingue).

Oggi sappiamo che l’IA necessità di:

  • algoritmi;
  • dati;
  • potenza di calcolo.

I tempi non erano ancora maturi. I finanziamenti pubblici vennero meno e si entrò nel cosiddetto “inverno dell’intelligenza artificiale”, un periodo che duro fino agli anni ’80.

La ricerca non venne però totalmente abbandonata. Anche grazie alla diffusione del computer nelle imprese, dalla seconda metà degli anni ’80 alcuni sistemi di intelligenza artificiale dedicati all’industria (ad esempio per la gestione della logistica) cominciarono ad avere un certo successo.

Nel 1997 l’intelligenza artificiale finì sui giornali di tutto il mondo dopo che il calcolatore Deep Blue fu in grado di vincere una partita a scatti contro il campione del mondo in carica Garry Kasparov.

Successivamente sistemi di IA furono in grado di vincere contro un essere umano anche a Go e ad altri giochi.

Nel 2011 Sebastian Thrun and Peter Norvig organizzarono, con la Stanford University, un corso online denominato Artificial Intelligence. Con 160 mila iscritti da tutto il mondo fu il primo MOOC di grande successo e contribuì a far conoscere lo stato dell’arte dell’IA del 21° secolo.

Più recentemente, nel 2018, l’Università di Helsinki ha reso disponibile Elements of AI un corso interattivo, tradotto anche in italiano.

L’indice di Elements of AI
L’indice di Elements of AI

Quanto sono intelligenti i computer?

Generalmene si parla di:

  • intelligenza artificiale forte per indicare un computer che ha coscienza di sé ed è in grado di apprendere da solo;
  • intelligenza artificiale debole per indicare un computer che è in grado di risolvere solo problemi di un certo tipo.

Ad oggi l’intelligenza artificiale forte non esiste, mentre quella debole può essere ottenuta attraverso tecniche come i sistemi esperti e l’apprendimento automatico.

Sistemi esperti

I sistemi esperti sono programmi che cercano “replicare” le conoscenze e le competenze di una persona molto esperta in un certo settore.

L’intelligenza di una persona (o di un gruppo di persone) viene quindi implementato sotto forma di algoritmi.

Apprendimento automatico

Con l’apprendimento automatico la macchina è programmata per svolgere determinati compiti migliorando i risultati futuri in base a quelli passati. Un classico esempio sono i software di riconoscimento del testo scritto o delle immagini (persone e cose).

Una tecnica di apprendimento automatico si basa sulle reti neurali artificiali, algoritmi e strutture di dati che simulano il comportamento dei neuroni umani.

Le reti neurali artificiali erano già note negli anni ’60, ma l’apprendimento automatico, per essere sviluppato, necessita di grandissime quantità di dati da analizzare.

I social media sono, in questo caso, un’ottima fonte.

L’intelligenza artificiale oggi

Il futuro dell’intelligenza artificiale è affascinante quanto preoccupante.

Teoricamente una macchina potrebbe diventare abbastanza intelligente da essere in grado di migliorarsi da sola, anche “riproducendosi”, senza l’intervento umano.

Si parla di singolarità tecnologica quando il cambiamento della civiltà avviene così rapidamente che le generazioni precedenti farebbero fatica a comprenderlo.

Questo concetto è collegato a quello di tecnologia esponenziale, una tecnologia i cui parametri di riferimento raddoppiano ogni tot mesi (si pensi, ad esempio alla legge di Moore per i microprocessori).

L’intelligenza artificiale può essere considerata una tecnologia a crescita esponenziale, che potrebbe prima o poi generare una singolarità tecnologica?

Molti imprenditori e studiosi sono abbastanza certi di questo fatto. Secondo Raymond Kurzweil la singolarità avverrà prima del 2050.

Molti scienziati ritengono che il futuro dell’IA vada attentamente governato. Al riguardo, nel 2015 ha fatto notizia una lettera aperta per il futuro dell’intelligenza artificiale, che è stata firmata da personalità di spicco (tra cui Stephen Hawking ed Elon Musk).

Sette requisiti fondamentali per un’IA affidabile

Oltre settant’anni fa lo scrittore Isaac Asimov aveva individuato alcuni importanti problemi etici relativi all’intelligenza artificiale e aveva formulato le famose Tre leggi della Robotica.

Oggi tali questioni si sono trasferite dalla narrativa di fantascienza al mondo reale ed è quindi importante porvi rimedio prima che sia tardi.

Una possibile soluzione per coniugare ricerca scientifica e centralità delle persone ci viene, nuovamente, dalla Commissione Europea.

Sono stati infatti individuati sette punti fondamentali che ogni intelligenza artificiale, che si possa definire affidabile, dovrebbe possedere:

  • possibilità di intervento e sorveglianza umani;
  • robustezza tecnica e sicurezza;
  • riservatezza dei dati;
  • trasparenza;
  • comportamento equo e non discriminante;
  • benessere sociale e ambientale come obiettivi di fondo;
  • accountability (cioè “rendicontazione”).
Condividi


Precedente:
Successivo:

Scopri di più da Missione Insegnante

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continue reading