Intelligenza artificiale per individuare i punti ciechi dell’auto senza conducente

Microsoft e MIT insieme per sviluppare una nuova auto senza conducente

Grazie all’intelligenza artificiale si colmano alcune lacune dell’auto senza conducente

Microsoft e MIT insieme per lo sviluppo di una nuova auto senza conducente: la loro ricerca sta provando a sviluppare un’intelligenza artificiale che sia in grado di leggere i punti ciechi dell’auto.

auto_senza_conducente

Come?

Sostanzialmente stanno sviluppando un’Intelligenza Artificiale che sia in grado di comprendere le azioni che compierebbe un essere umano in una data situazione. Conoscendo il comportamento umano, l’Intelligenza artificiale modifica il suo comportamento e lo adegua a ciò che l’uomo avrebbe fatto nella situazione specifica.

In altre parole, si insegnano all’Intelligenza Artificiale una serie di comportamenti umani. Questa deve replicarli in casi similari per non avere più il limite della mancanza del “ragionamento” umano alla guida dell’auto.

Tuttavia, resta la possibilità di intervento umano, nel caso in cui l’Intelligenza Artificiale fallisse durante un problema o un imprevisto lungo il percorso.

Alla base c’è l’idea di insegnare alle macchine ciò che esse non sanno: non conoscono l’imprevisto e non sanno porvi rimedio.

intelligenza_artificiale

Un esempio

Nel caso in cui, ad esempio, durante una situazione d’emergenza, un’auto senza conducente non sa come districarsi dalla situazione, potrebbe fare affidamento sui comportamenti umani che le sono stati insegnati. Un uomo si muoverebbe, magari, verso il lato della strada per evitare l’impatto diretto con un altro veicolo. Viene dunque insegnato all’Intelligenza Artificiale che in quella data circostanza deve spostarsi lungo il lato della strada. Avrà, dunque, agito, pensando a come avrebbe risolto il problema un umano.

“Il modello aiuta i sistemi autonomi a conoscere meglio ciò che non sanno. Molte volte, quando questi sistemi vengono implementati, le loro simulazioni addestrate non corrispondono al contesto reale e potrebbero commettere errori, come fare incidenti. L’idea è di usare gli umani per colmare quella lacuna tra la simulazione e il mondo reale, in modo sicuro, così da poter ridurre alcuni di questi errori “, ha detto Ramya Ramakrishnan, primo autore del Computer Science and Artificial Intelligence Laboratory al MIT.

Inoltre, i ricercatori possono addirittura impedire che l’auto senza conducente cominci ad essere troppo sicura di sé. Grazie ad un algoritmo di apprendimento automatico, non solo identifica quali sono le risposte accettabili e quelle inaccettabili, ma, con dei calcoli di probabilità, individua i modelli e determina se qualcosa è davvero sicuro o se potrebbe esserci qualche problema.

rss-subscribe

Non perdere i prossimi articoli! Iscriviti al Feed RSS
Oppure abbonati gratis via Mail:

Inoltre puoi:

 

By with No Comments 0 71