Di recente ha assunto grande rilevanza la notizia della realizzazione negli USA del primo avvocato-robot chiamato “DoNotPay” in grado di fornire consulenza legale gratuita in materia di contravvenzioni per divieto di parcheggio. L’ideatore  Joshua Browder, ha dichiarato di essere riuscito a far togliere quasi 400mila multe.

In realtà non si tratta di un robot, almeno di come lo intendiamo tradizionalmente in  forma umanoide, ma di un’applicazione di intelligenza artificiale denominata chatbot che genera in automatico, qualora sussistano le condizioni, una lettera di contestazione nei confronti della specifica contravvenzione, che l’utente deve solo stampare e firmare.

Per essere precisi per chatbot (dal termine più generale bot, diminutivo di robot) si intende un software basato sull’Intelligenza Artificiale, in grado di simulare una conversazione intelligente con l’utente su una chat. Di fatto offre un servizio funzionale e di supporto attraverso le principali piattaforme di messaggistica come Slack, Telegram, Facebook Messenger. Può essere utilizzato in diversi settori: customer care, diffusione di notizie, offerte e promozioni, e-commerce, attivazione di servizi. Il software si contraddistingue per essere autonomo e sempre attivo per offrire agli utenti aiuto e risposte, ma nello stesso tempo tracciarne interessi, preferenze, età e gusti ai fini marketing e pubblicità comportamentale.

Si rientra, quindi, nell’ambito dei c.d. sistemi esperti (già descritti nell’articolo http://www.altalex.com/documents/news/2017/06/15/avvocato-robot-o-giudice-robot) che si distinguono dai sistemi informatici tradizionali poiché in questi ultimi:

  1. La conoscenza non è mai rappresentata esplicitamente e non è mai separata dalle procedure che la usano e che ne disciplinano l’elaborazione;
  2. la conoscenza è applicata in modo rigidamente predeterminato;
  3. non è possibile aggiungere nuova conoscenza senza modificare le procedure;
  4. il sistema non è in grado di esporre la conoscenza sulla quale si basa né di spiegare perché, sulla base della stessa, sia giunto a determinati risultati.

Invece, nei sistemi basati sulla conoscenza:

  1. La conoscenza è contenuta in una determinata base, dove è rappresentata in un linguaggio ad alto livello, cioè in una forma relativamente vicina al linguaggio usato nella comunicazione umana. E’ possibile adottare una rappresentazione dichiarativa del compito affidato al sistema informatico, lasciando al sistema l’individuazione della procedura da seguire per svolgere quel compito;
  2. la conoscenza è usata da un motore inferenziale, ovvero un meccanismo in grado di interpretare il contenuto della base di conoscenza ed effettuare deduzioni logiche in modo da risolvere il problema posto al sistema;
  3. la base di conoscenza può essere arricchita di nuove informazioni senza intervenire sul motore inferenziale;
  4. il sistema è in grado di esporre in forma comprensibile le premesse e le inferenze che hanno condotto ad un determinato risultato, cioè di giustificare le conclusioni cui giunge.

I sistemi basati sulla conoscenza sono spesso completati da interfacce che agevolano l’interrogazione e la preparazione della base della conoscenza.

Gli obiettivi dell’intelligenza artificiale sono essenzialmente due:

– approfondire e comprendere i principi che rendono possibile l’intelligenza (il computer viene usato per simulare le teorie sull’intelligenza);

– progettare computer o software dotati di capacità simili a quelle umane senza, però, tentare di imitare esattamente i processi informativi degli esseri umani.

I due approcci sono, naturalmente, correlati in quanto il risultato delle ricerche su come la gente risolve i problemi può spesso dare notevoli contributi per le tecniche di problem-solving attraverso l’uso dei computer.

Si può, quindi, tentare di definire l’intelligenza artificiale come quella scienza tendente a sviluppare modelli computazionali di comportamento intelligente, in modo che gli elaboratori possano eseguire compiti che richiederebbero intelligenza da parte dell’uomo.

Questi compiti possono essere suddivisi in:

– compiti del senso comune, che possono essere svolti da qualsiasi persona adulta normale, anche priva di una formazione specifica (come parlare la propria lingua madre, riconoscere oggetti e forme, comprendere la trama di racconti, ecc.);

– compiti da esperti, (come nel caso del chatbot) che normalmente presuppongono conoscenze e abilità specifiche (come diagnosticare malattie, progettare sistemi informatici, effettuare analisi chimiche, ecc.).

L’intelligenza artificiale, quindi, comprende, da un lato, la c.d. scienza cognitiva, che studia l’intelligenza al fine di rappresentarla in modelli che possano essere trasferiti in applicazioni informatiche, d’altro lato, l’intelligenza artificiale in senso stretto, che si occupa delle tecnologie per tali applicazioni. Quest’ultima, a sua volta, è stata divisa in intelligenza artificiale forte, intesa a duplicare la mente negli elaboratori, cioè a creare computer in grado di comprendere e di possedere stati cognitivi, ed in intelligenza artificiale debole intesa a realizzare sistemi informatici capaci di prestazioni normalmente attribuite all’intelligenza umana, pur senza assumere alcuna analogia tra le menti e i sistemi informatici.

Questa ripartizione dell’intelligenza artificiale è sicuramente la logica conseguenza della duplice concezione dell’intelligenza: quella pulita che assume la riducibilità di tutte le manifestazioni dell’intelligenza a pochi principi, esprimibili con eleganza in formalismi logici o matematici e quella sporca, secondo la quale, invece, l’intelligenza è una raccolta di molti metodi ad hoc, ciascuno adeguato ad un compito specifico.

Il dibattito tra la concezione sporca e la concezione pulita dell’intelligenza è connesso alla controversia tra i modelli procedurali ed i modelli dichiarativi della conoscenza: i primi assumono che la conoscenza sia costituita da un insieme di procedure intese a raggiungere determinati scopi nell’interazione con l’ambiente; i secondi presuppongono, invece, che la conoscenza consista di asserzioni che rappresentano il contesto dell’azione intelligente.

Ultimamente però i sistemi esperti sono stati affiancati nell’ambito dell’intelligenza artificiale applicata al diritto dalle c.d. reti neurali (intelligenza artificiale forte) che differiscono in modo radicale e per diversi aspetti dai tradizionali modelli di intelligenza artificiale. Le principali differenze derivano dal presupposto che le reti apprendono, non conoscono già le regole ma si modellano, attraverso un algoritmo di apprendimento, in modo tale da comportarsi come se conoscessero le regole, alla fine dell’apprendimento. Quale sarà il risultato finale del procedimento d’apprendimento è imprevedibile per il programmatore stesso: il programmatore non può prevedere l’evoluzione della rete. Ma una volta terminato l’apprendimento la rete diventa stabile e la sua configurazione non cambia più.