Gary Marcus, un om de știință cognitiv la Universitatea din New York, are o fiică de trei ani, Chloe, care iubea kiturile Lego. Cu toate acestea, toate clădirile sale erau verticale, arătând de jos în sus. De aceea, într-o zi, tatăl ei a adus casete de lego, permițându-vă să creați creații din cuburi de lego, fie lateral, fie cu susul în jos. La început i-a sugerat fiicei sale să stea pe marginea mesei, dar pentru o clipă Chloe a lipit ea însăși banda de perete și statuia legiunii ei a ieșit din perete în câteva minute.

Marcus a făcut de fapt un experiment pentru a vedea dacă Chloe va fi capabilă să aplice ceea ce știa deja despre activitate într-un context nou. Chloe a dat dovadă de bun simț aici, un fel de inteligență care face ca inteligența artificială, mai concentrată pe reproducere, să aibă probleme. Dar Marcus crede că inteligența artificială ar putea fi învățată la fel ca și copiii.

Cercetătorii de învățare automată spun că computerele instruite pe volume mari de date pot învăța orice, inclusiv bunul simț, au nevoie doar de câteva reguli programate. Cu toate acestea, potrivit lui Marcus, informaticienii ignoră decenii de muncă în științele cognitive și psihologia dezvoltării care arată că oamenii au abilități înnăscute, instincte programate care apar la naștere sau în copilăria timpurie și ne ajută să gândim la fel de abstract și flexibil ca Chloe. El crede că oamenii de știință ar trebui să includă doar astfel de instincte în programele lor de inteligență artificială.

prezentare

Mulți informaticieni explorează încă limitele a ceea ce poate face față inteligența artificială „naivă”. Mulți se opun introducerii prea multor cunoștințe de bază. În plus, mulți oameni de știință apreciază simplitatea și au aversiune față de depanarea codului prea complex. Un alt factor este companiile precum Facebook sau Google, care sunt cele mai interesate de inteligența artificială axată pe probleme strict definite, cum ar fi căutarea pe web sau recunoașterea feței. Sistemele de inteligență artificială nu au nevoie de cunoștințe prealabile pentru aceste sarcini și pot fi instruite pe seturi mari de date. În același timp, obțin rezultate foarte bune în ele.

Pe termen lung, însă, oamenii de știință se așteaptă ca inteligența artificială să îndeplinească sarcini mult mai complexe care necesită flexibilitate și bun simț. Vor să creeze chatbots care să explice știrile, taxiurile autonome care gestionează traficul haotic al orașului și roboții care tratează persoanele în vârstă. „Dacă vrem să creăm roboți capabili să interacționeze în întreaga lume umană, precum C-3PO”, spune Josh Tenenbaum, psiholog la Universitatea de Tehnologie din Massachusetts (MIT), „va trebui să rezolvăm toate aceste probleme la un nivel mult mai general. "

Unii informaticieni încearcă deja. În februarie, MIT a lansat proiectul Intelligence Quest, o inițiativă de cercetare pentru a înțelege inteligența umană dintr-o perspectivă tehnică. Proiectul a primit deja investiții de câteva sute de milioane de dolari. Oamenii de știință speră să obțină inteligența artificială undeva la interfața dintre învățarea automată pură și instinctul pur. El va urma câteva reguli încorporate, dar va învăța și ca înainte.

O parte importantă a acestei sarcini va fi să aflăm ce știu copiii și când - aceste cunoștințe pot fi apoi aplicate mașinilor. Cel mai recent, Institutul Allen pentru Inteligență Artificială din Seattle, Washington, a strâns 125 de milioane de dolari pentru a dezvolta și testa bunul simț în inteligența artificială. „Am dori să ne bazăm pe structura care este înnăscută în creierul uman”, spune Oren Etzioni, directorul general al institutului, „dar nu înțelegem cum creierul procesează limbajul, gândirea și cunoașterea”.

De-a lungul timpului, inteligența artificială (AI) a trecut de la algoritmi bazați pe reguli programate și logică la învățarea automată, în care algoritmii conțin mai multe reguli și obțin date în formarea de încercare și eroare. Mintea umană este undeva la mijloc.

„Încercăm să realizăm unul dintre cele mai vechi vise despre IA: să putem construi o mașină care îi dezvoltă inteligența, așa cum o face o persoană - începe ca un copil și învață ca un copil”, explică Tenenbaum. În ultimii ani, AI a demonstrat că poate traduce vorbirea, diagnostica cancerul și bate oamenii în poker. Cu toate acestea, poate apărea întotdeauna o eroare. Chiar și algoritmii care pot diferenția rasele de câini mai bine decât puteți eticheta uneori un chihuahua ca brioșă de afine.

Învățarea automată - un tip de inteligență artificială - este responsabilă pentru aceste succese și eșecuri. Se poate spune că inteligența artificială a trecut de la un software care se bazează pe multe reguli programate la sisteme care învață prin încercări și erori. Calculatoare puternice, date mari și progrese în algoritmi numiți rețele neuronale au făcut acest lucru posibil, modelat pe modelul neuronilor din creierul uman.

Această procedură a fost utilizată în programul Alpha DeepMind, care este acum deținut de Google. În 2016, AlphaGo l-a învins pe campionul uman în clasicul joc de strategie chinez Go. Un an mai târziu, AlphaGo Zero a câștigat cu ușurință AlphaGo cu un număr mult mai mic de reguli. Și câteva luni mai târziu, un sistem AlphaZero și mai simplu a învins AlphaGo Zero și a învățat să joace șah. Deși IBM Deep Blue l-a învins pe marele maestru de șah Garry Kasparov în 1997, a fost o inteligență artificială clasică bazată pe reguli. Cu toate acestea, sa dovedit că adevăratul virtuozism al șahului constă în cunoașterea excepțiilor și a excepțiilor de la excepții etc. Și astfel de informații se obțin cel mai bine prin experiență. De aceea AlphaZero, care învață iar și iar, poate învinge Deep Blue, cele mai bune programe de șah de astăzi și orice campion.

Dar sisteme precum Alpha nu își pot extrage experiența pe baza bunului simț. Dacă Alpha ar trebui să joace să meargă pe o tablă de 21 × 21 în loc de clasicul 19 × 19, ar trebui să învețe din nou jocul. Așa că nu poate transfera cunoștințe dintr-o zonă în alta, așa cum a făcut Chloe când a început să construiască cuburi de lego cu susul în jos.

Soluția nu este o revenire la inteligența artificială bazată pe reguli. Chiar și un copil nu va recunoaște un câine pe baza unor reguli precum că „numărul membrelor sale = 4, are o coadă și este mai mare decât o pisică”. Astfel de reguli nu ar permite recunoașterea de ex. chihuahua cu trei picioare. Oamenii au predispoziții care îi ajută să învețe și să justifice lumea. Natura nu ne oferă un set de abilități gata pregătite, ci o „schelă” pentru construirea lor.

Potrivit psihologilor, avem cel puțin patru sisteme de „cunoștințe de bază” care ne oferă o bază pentru înțelegerea obiectelor, activităților, numerelor și spațiului. De exemplu, conform unui studiu, copiii cu vârsta peste 3 zile interpretează cele două capete ale unei tije parțial ascunse ca făcând parte dintr-o singură entitate - sugerând că creierele noastre pot fi predispuse să perceapă obiecte coezive.

Marcus a compilat o listă minimă de 10 instincte umane despre care crede că ar trebui să fie încorporate în AI. Aceasta a inclus, de exemplu, noțiunea de cauzalitate, analiza cost-beneficiu etc. Yan LeCun, informatician la Universitatea din New York, care efectuează acum cercetări AI pe Facebook, nu este de acord cu mulți psihologi ai dezvoltării, argumentând că dacă copiii pot învăța astfel de abilități în câteva zile, așa ar putea și algoritmii de învățare automată. Convingerile sale se bazează pe experiență.

El lucra la recunoașterea imaginii și, încă din anii 1980, a susținut că algoritmii programați manual pentru a identifica funcțiile dintr-o imagine ar putea deveni inutile. Treizeci de ani mai târziu, s-a dovedit a avea dreptate. Criticii l-au întrebat de ce trebuie instruite abilitățile, dacă pot fi construite. El a răspuns că încorporarea este dificilă și, dacă nu înțelegeți pe deplin cum funcționează ceva, regulile pe care le propuneți sunt susceptibile de a fi rele.

Dar Marcus a subliniat că LeCun însuși a inserat unul din cele 10 instincte cheie în algoritmii săi de recunoaștere a imaginii: invarianța tradițională, capacitatea de a recunoaște un obiect indiferent unde se află în câmpul vizual. Invarianța translațională este un principiu al rețelelor neuronale convoluționale. În ultimii cinci ani, ei au devenit centrul recunoașterii imaginii.

LeCun spune că invarianța translațională ar putea apărea, de asemenea, în mod spontan, cu mecanisme generale mai bune de formare. Discuția despre unde să plasezi AI pe spectrul dintre învățarea pură și instinctul pur va continua. Cu toate acestea, o problemă practică este adesea trecută cu vederea aici: cum să proiectăm și să programăm o astfel de mașină mixtă. Nu este încă clar cum să combinați învățarea automată și miliarde de parametri ai rețelei neuronale cu reguli și logică. Nici despre modul de identificare a celor mai importante instincte și de programare flexibilă. Cu toate acestea, acest lucru nu împiedică unii cercetători și companii să încerce.

De exemplu, Laboratorul de Robotică de la Universitatea New South Wales din Sydney, Australia, caută să echipeze robotul Toyota Human Support (HSR), care are un braț și ecran în loc de față, cu două instincte umane. În primul rând, vor să-l învețe să descompună problema în sarcini mai mici și mai ușoare, la fel cum s-ar împărți o soluție în mai mulți pași. Ulterior, vor să ofere robotului capacitatea de a fundamenta presupuneri și obiective, pe măsură ce oamenii se gândesc instinctiv la intențiile altora. Cum, de exemplu, ar reacționa HSR dacă cineva i-ar cere să aducă o ceașcă roșie, dar să găsească doar o ceașcă albastră și o farfurie roșie?

Software-ul lor demonstrează unele abilități umane, inclusiv bunul simț, de a aduce mai degrabă o ceașcă albastră decât o placă roșie. Cu toate acestea, alte reguli trebuie programate în software. De exemplu, inteligența artificială trebuie să spună că cuvântul cupă este mai important decât cuvântul roșu. În mod ideal, robotul ar trebui să aibă instincte sociale pentru a învăța rapid preferințele personale.

Alți cercetători încearcă să ofere inteligenței lor artificiale cunoștințele intuitive de fizică pe care copiii par să le aibă. De exemplu, oamenii de știință de la DeepMind au dezvoltat așa-numitul rețele de interacțiune. Acestea implică anumite ipoteze despre lumea fizică: există obiecte discrete care au interacțiuni caracteristice. Așa cum copiii analizează rapid lumea prin interacțiunile entităților, aceste sisteme învață cu ușurință și proprietățile obiectelor și relațiile dintre ele. Rezultatele sugerează că rețelele de interacțiune pot prezice, de exemplu, comportamentul sferelor care sări de pe pereții unei cutii mult mai precis decât o rețea neuronală generală.

Compania Vicarious din California, care se concentrează pe software pentru roboți, dezvoltă această idee și mai mult în rețeaua sa de scheme. Aceste sisteme presupun, de asemenea, existența obiectelor și interacțiunilor, dar încearcă, de asemenea, să traseze o conexiune cauzală care le conectează. Software-ul lor învață să planifice înapoi, pe baza rezultatului dorit. (De exemplu, nu vreau să-mi prurească nasul - probabil că va fi zgâriat.)

Cercetătorii și-au comparat metoda cu rețeaua neuronală de ultimă generație din Atari Breakout, în care un jucător mută un liliac pentru a sări o minge, care apoi bate cărămizile de pe perete. Rețeaua de scheme poate afla despre cauzalitate, de ex. despre mingea care lovește cărămizile în contact indiferent de viteza acesteia. Apoi, puteți muta cărămizile sau lăsați jucătorul să jongleze cu trei bile - rețeaua de scheme nu are nevoie de antrenament suplimentar atunci când schimbați jocul. O altă rețea a eșuat.

Una dintre sarcinile cele mai provocatoare pentru cercetători este de a programa instinctele flexibil, astfel încât AI să poată face față unei lumi haotice în care regulile nu sunt întotdeauna respectate. De exemplu, mașinile autonome nu se pot baza pe alți șoferi pentru a respecta cu strictețe reglementările de circulație. Pentru a aborda această imprevizibilitate, Noah Goodman, psiholog și informatician la Universitatea Stanford din Palo Alto, California, contribuie la dezvoltarea limbajelor de programare probabilistice (PPL).

El le descrie ca o combinație de structuri solide de coduri computerizate cu matematică de probabilitate care reflectă modul în care oamenii pot urma logica, dar iau în considerare și incertitudinea: Dacă iarba este umedă, probabil că a plouat, dar poate că cineva o udă. În mod crucial, PPL poate fi combinat cu învățarea profundă. Goodman spune că PPL ia în considerare nu doar fizica și logica, ci și modul în care oamenii comunică și se ocupă de forme complicate de exprimare, cum ar fi exagerarea, ironia și sarcasmul.

Este posibil ca Chloe să nu înțeleagă sarcasmul până la vârsta de aproximativ 10 ani. Dar sentimentul de limbaj al copiilor mici este clar. Combină cuvinte și idei precum cuburi de lego, amestecându-le, adaptându-le și testându-le cu nerăbdare în întreaga lume. În mod similar, în timp, își ajustează simțul intuitiv al fizicii. Și așa ar trebui învățată inteligența artificială.