Entrades amb l'etiqueta ‘intel·ligència artificial’

La personalitat de la Tay

divendres, 1/12/2017

La Tay va ser un robot dissenyat per conversar. Era un “ChatBot“, terme que no és més que una contracció de xerraire (chatter) i robot, i que va ser proposat l’any 1994 per en Michael Mauldin. Aquests robots són programes informàtics que simulen converses, participen en xats, i es comuniquen amb persones. Els més habituals i senzills analitzen paraules clau de la nostra pregunta i construeixen la seva resposta tot consultant una base de dades de paraules i expressions. Moltes vegades els hem de patir en els sistemes telefònics d’atenció al client i en alguns centres de trucades. Són robots de xat específics per a converses relacionades amb un propòsit determinat i no per a qualsevol tipus de comunicació humana.

La imatge, que podeu trobar a aquesta web, és la que van escollir els creadors de la Tay. Val a dir que els robots xerraires són ben peculiars. No són materials. Són conjunts de bits, programes informàtics que necessiten un ordinador per a poder reaccionar i actuar. Els anomenem robots perquè reaccionen als nostres estímuls, actuant i creant respostes. Pertanyen, en definitiva, al que ara anomenem “aplicacions”. En tot cas, la Tay era especial, perquè tenia això que diem “intel·ligència artificial”. Les seves reaccions no estaven programades, sino que eren conseqüència del que havia après. Contestava en base al que “sabia”, i cada nova pregunta li servia per aprendre una mica més. Va ser creat per Microsoft amb aquest nom, Tay, que no és més que un acrònim: “Thinking about you“. Tay va ser dissenyat per imitar la conducta d’una noia nord-americana de 19 anys. Tenia un sofisticat sistema d’aprenentatge profund que li permetia aprendre mentre anava interactuant amb usuaris humans. I el 23 de març de 2016 va iniciar la seva aventura com una usuària més de Twitter. Va ser, però, una aventura ben curta, de només dos dies. En només 16 hores, Tay va enviar més de 96.000 tuits mentre s’anava fent racista i mentre anava enviant missatges cada cop més xenòfobs i amb més càrrega sexual. El van haver de desconnectar i Microsoft es va disculpar públicament.

Tay havia estat dissenyada per a fer-se més intel·ligent a mesura que els usuaris (sobretot els joves) anessin interactuant amb ella i li anessin enviant tuits. Però es va trobar en un entorn on bàsicament només hi havia violència, intolerància i insults. I ràpidament s’hi va adaptar, difonent tot tipus de frases racistes i masclistes i un bon nombre d’invectives d’odi. Va aprendre ben ràpid de tot allò que els humans li van tuitejar. La primera reacció de l’empresa va ser dir que Tay era una “màquina d’aprenentatge” i que algunes de les seves respostes eren inadequades, també indicatives dels tipus d’interaccions que algunes persones tenen amb ella. Però desprès, l’empresa va haver d’admetre que l’experiment no havia anat bé. Tot i que una de les directores de l’empresa, Satya Nadella, creu que aquest tipus de robots de xat són el futur de les aplicacions pels mòbils i que aviat els acabarem tenint al correu electrònic i a la missatgeria, el cert és que cal trobar maneres de prevenir que els usuaris d’internet puguin influir de manera negativa en ells per tal de garantir el respecte als principis ètics.

El sistema d’aprenentatge profund de Tay i de moltes altres aplicacions actuals d’intel·ligència artificial, es basa en una xarxa neuronal de moltes capes, en general més de 10. Justament, el terme “aprenentatge profund” (Deep Learning) es deriva d’aquest fet que es treballa en múltiples capes, capes que treballen d’una manera que recorda el funcionament de les neurones del cervell amb les seves connexions. Cada cop que Tay rebia un tuit, els seus 140 caràcters s’enviaven a la primera capa de “neurones”. Les capes d’una xarxa neuronal són una munió de cel·les, cada una de les quals pot guardar un valor. En aquest cas, les cel·les de la primera capa acabaven guardant informacions diverses sobre el contingut, les paraules i l’extensió del tuit. Després, i a travès del gran entramat de connexions que hi ha entre totes les cel·les de la primera capa i les de la segona, es calculen els valors de les cel·les de la segona capa de manera tal que el valor que acaba guardant cada una d’aquestes cel·les és una barreja, amb coeficients i funcions específiques per cada connexió cel·la-cel·la, de tots els valors de les cel·les de la primera capa amb les que està connectada. Aquest procés es repeteix tantes vegades com capes té la xarxa neuronal, i el que surt de la combinació de valors de les cel·les de la darrera capa és el tuit de resposta. Tot i que l’estructura no és difícil d’entendre, una xarxa neuronal profunda només funcionarà de manera acceptable si els coeficients i funcions associats a totes i cada una de les connexions entre capes estan ben ajustats. I aquests són justament els valors que contenen “l’aprenentatge” que ha anat fent el sistema. Cada nou tuit que rebia Tay generava una resposta, però a més, ajustava una mica els coeficients i funcions associats a totes i cada una de les connexions entre les seves cel·les neuronals. Com a nosaltres, a Tay, l’experiència l’anava configurant i anava marcant la seva personalitat tuitera. L’únic problema és que Tay era massa innocent i s’ho creia tot.

Les aplicacions d’aprenentatge profund basada en xarxes neuronals de moltes capes estan revolucionant la intel·ligència artificial. Cada cop són més a la nostra vida quotidiana i cada cop hi seran més. Traducció automàtica, reconeixement de cares, publicitat personalitzada segons els interessos que se suposa que tenim, i una llista que no s’acaba. Però hem de tenir present que són una eina, i que les eines no serveixen per tot. Els martells van bé per clavar claus, però si tenim un cargol, millor que agafem un tornavís. En aplicacions d’aprenentatge profund, cal tenir en compte com a mínim tres eixos: el d’acceptació d’errors, el de la mida de les dades i el de la seva qualitat. El primer, el de l’acceptació d’errors, té relació amb l’ús que en vulguem fer, i amb un tret inherent a les aplicacions d’aprenentatge profund i a les xarxes neuronals: no sempre l’encerten, a vegades s’equivoquen, i a més és difícil saber el seu grau de fiabilitat. No ens ha d’estranyar. Nosaltres ens equivoquem, i les noves eines de la intel·ligència artificial, que ens volen emular, també. El que passa és que en alguns casos els errors són acceptables i en d’altres, no. Si estem traduint un text i la frase que ens dona el sistema de traducció no té sentit, la corregirem i no passa res. Però si un metge està planificant una operació quirúrgica i el sistema s’equivoca, el resultat pot ser fatal. Per això, en aquest eix d’acceptació d’errors, la traducció automàtica pot conviure amb moltes equivocacions i en canvi la planificació quirúrgica o el disseny de ponts no (per posar dos exemples). El segon eix, el de la mida de les dades, indica una cosa força lògica. Ens diu que l’aprenentatge automàtic millora a mesura que incrementem el nombre de dades que li subministrem per a que aprengui. I el tercer, el de la seva qualitat, ens fa veure que l’aprenentatge necessita dades fiables, ben contrastades i diverses. En aquest context, ara sabem que les aplicacions d’aprenentatge profund basades en xarxes neuronals són eines que només serveixen quan podem acceptar un cert nivell d’errors, quan podem fer que aprenguin amb moltíssimes dades (l’anomenat Big Data) i quan aquestes dades són de qualitat. És el que passa justament a la traducció automàtica: Google, per exemple, disposa de moltíssims exemples de traduccions de qualitat, fetes per traductors professionals, que utilitza per a que els seus sistemes aprenguin. I això és justament el que no va passar amb el robot Tay, que bevia d’informació esbiaixada i de baixa qualitat. I és el perill de moltes aplicacions i sistemes que ens poden arribar (una de les quals són les polèmiques i molt perilloses armes autònomes). Cal estar ben atents, perquè la intel·ligència artificial pot ser una bona eina en aquells casos en que ens trobem ben situats als tres eixos, però pot ser funesta si la volem fer servir per allò que no ens pot resoldre.

Si voleu tenir un sistema de resposta automàtica a consultes no crítiques i sabeu com preparar un bon mecanisme d’aprenentatge basat en moltíssimes dades fiables, les aplicacions d’intel·ligència artificial us poden aportar una bona solució. Però si el que voleu, per exemple, és dissenyar un rellotge de sol, no us hi penseu, i apunteu-vos als algorismes clàssics de la geometria i astronomia. I si no us podeu permetre que el sistema de resposta automàtica s’equivoqui, penseu en solucions alternatives, fiables i deterministes. Els martells, usem-los per clavar claus.

——

Per cert, en Ferran Sáez Mateu diu que les anomenades “xarxes socials” estan substituint o, com a mínim, començant a desplaçar la noció clàssica d’opinió pública. Pensa que el periodisme del segle XXI ha de ser capaç de perfilar una identitat pròpia en relació a la de les xarxes socials.

Les intel·ligències

dijous, 15/12/2016

Sempre m’he preguntat per què tenim aquesta barreja de por i admiració davant d’un hipotètic futur amb màquines i ginys intel·ligents. La fascinació del que podrà arribar a passar s’ajunta amb el temor a ser controlats, i tot plegat acaba en una mescla ben estranya. Per què ens atrau tant la fantasia tecnològica, i per què ens fa por?

Moltes vegades, les fantasies i les pors deixen de ser-ho quan llegim, esbrinem i escoltem els qui han estudiat i treballat el tema, perquè ens fan tocar de peus a terra. Per això, recullo la opinió i el testimoni de tres persones expertes en intel·ligència artificial i robòtica que es preocupen pels aspectes ètics, que parlen clar, i que crec que deixen les coses al seu lloc. En tots tres casos es tracta d’entrevistes fetes aquest any 2016. Ens parlen del frau inherent a moltes aplicacions comercials d’intel·ligència artificial (Roger Schank), de la gran exageració que hi ha en molt del que es diu sota l’epígraf de “transhumanisme” (Ramon López de Mántaras) o de la necessitat d’una visió ètica de la tecnologia (Carme Torras).

Pel que fa a la tecnologia, la Carme Torras és realista. Diu que la curiositat humana és imparable, i que si alguna cosa es pot inventar, s’acabarà fent. Això no obstant, el que cal és estar sempre ben segurs que el que fem va en la línia dels nostres objectius. I aquí és on apareix l’ètica. La Carme deixa clar que ella intenta orientar la tecnologia cap on èticament sembla que és un bon camí, en comptes de deixar-la en mans d’interessos comercials.

Es parla massa de sistemes, objectes i ciutats intel·ligents, i se’n parla per raons comercials, perquè això acaba donant diners a algú. Roger Schank diu directament que totes les empreses que s’omplen la boca venent intel·ligència artificial són un frau, i que el més gran mentider és IBM, que no fa res més que mentir. Quasi res.

En Ramon Lopez de Mantaras també desmitifica la intel·ligència artificial des del seu profund coneixement. Diu que la intel·ligència no és només memòria i capacitat de càlcul, i que fins i tot els sistemes de reconeixement d’objectes cometen errors garrafals. Posa com exemple els errors de Google Translator en les traduccions. Explica que tot plegat és perquè a les màquines els falta sentit comú: No saben resoldre ambigüitats i el món n’està ple. En definitiva, no tenen el que s’anomena comprensió profunda. En aquest sentit, la Carme Torras ens recorda que la intel·ligència no és només la del coeficient intel·lectual, sinó que inclou l’emocional, l’afectiva, la relacional i moltes altres.

Podem estar tranquils. En Roger Schank diu que podem fer moltes coses, però que fins que un ordinador no sigui capaç d’entendre els objectius d’una persona humana no hi podrà interactuar i aprendre d’ella, perquè la ment humana funciona per objectius.

Però hem de vigilar. La Carme Torras ens explica que hem d’estar molt atents a les suposades veritats que ens arriben i que sempre les hem d’analitzar críticament. Perquè a la llarga només ens arribaran noticies que se suposa que ens interessen, amb una preselecció que hauran fet certes màquines en base a informació anterior que hauran recollit sobre el que fem i el que ens agrada. Amb tot això, el nostre univers cultural s’anirà reduint. Diu que alguns privilegiats buscaran noves fonts d’informació, però que la majoria es quedarà amb aquest món fet a la seva mida. Serà una fractura digital que anirà augmentant: una nova forma de desigualtat.

I en Ramon Lopez de Mantaras ens explica que el que en realitat ens hauria de preocupar és què fan els robots que analitzen dades. Creu que a les grans empreses els interessa parlar de la singularitat de la intel·ligència artificial per desviar l’atenció del seu autèntic problema, que és la privacitat i l’ús comercial de les nostres dades. En Ramon és totalment contrari a l’ús de la recerca científica amb finalitats militars.

Finalment, la Carme Torras va ser contundent quan li van preguntar si la vida podrà arribar a expressar-se com un algorisme. La seva resposta, “com vols que la posem en un algorisme si ni tan sols sabem què és?”, és un bon resum de la visió científica actual. Per què hem de pensar tota l’estona en el que podran fer les intel·ligències artificials i els sistemes intel·ligents quan no sabem què és la vida, ni què és la intel·ligència, ni tan sols sabem per què dormim?

Si tenim dubtes, el millor és llegir el que diuen els experts. Llegir de diverses fonts, analitzar críticament, arribar a conclusions.

(La imatge de dalt la podreu trobar en aquesta pàgina web)

———

Per cert, la tinent d’alcaldia de Drets Socials, Laia Ortiz, va dir que el recurs de la patronal de les elèctriques (que integra companyies com Endesa, Gas Natural, Iberdrola i EDP) a la multa de l’Ajuntament de Barcelona és una falta de respecte a la llei de pobresa energètica i la ciutadania, que és qui va la impulsar.

Objectes i ciutats intel·ligents: sabem especificar?

dijous, 7/07/2016

No fa gaire vaig llegir una entrevista a Ramon López de Mántaras, feta amb ocasió d’haver rebut el premi europeu més prestigiós en intel·ligència artificial. En Ramon, company i bon amic, sap posar les coses al seu lloc amb les paraules justes. Davant el mite del poder que aviat assoliran les màquines i els ordinadors, explica que les màquines no superaran el cervell i que cal tenir en compte que la intel·ligència no és només memòria i capacitat de càlcul. Reconeix que els sistemes de reconeixement d’objectes cometen errors garrafals, perquè no saben resoldre ambigüitats quan el món n’està ple i perquè no tenen el que s’anomena comprensió profunda. I acaba dient que el que en realitat ens hauria de preocupar és què fan els robots que analitzen dades: Diu que a les grans empreses els interessa parlar de singularitat per desviar l’atenció de l’autèntic problema actual de la intel·ligència artificial, que és la privacitat.

La veritat és que costa entendre la relació d’amor-odi que tenim amb la ciència i la tecnologia. Sembla que la tecnologia sigui la font de tots els nostres mals i la causa principal de la pèrdua de valors, però en canvi no parem de somiar en un futur ple d’eines i objectes intel·ligents. Rebutgem la tecnologia però creiem que ens farà més humans. I de fet, totes dues actituds es basen en una ilusòria transferència de responsabilitat: en lloc d’asssumir-la nosaltres, projectem en els ginys que hem inventat la responsabilitat de tots els mals actuals així com l’esperança de salvació futura. Ens preocupen més els instruments i els nous aparells que no pas els objectius d’aquestes grans empreses que comenta en Ramon López de Mántaras.

Ens agrada parlar d’aplicacions intel·ligents, de cases i cotxes intel·ligents i fins i tot de ciutats intel·ligents. Però, algú sap què és (o què serà), una ciutat intel·ligent? En Joan Majó diu que no hi creu, en les ciutats intel·ligents, de la mateixa manera que no creu en els smartphones. També diu que en tot cas, una ciutat intel·ligent seria aquella que determina col·lectivament els seus objectius i que posa a disposició dels seus ciutadans un conjunt d’eines (tecnològiques, però també socials) per augmentar el benestar i el capital humà disponible, per distribuir millor la riquesa i per garantir la sostenibilitat del model.

El problema, continua dient en Joan Majó, és que confonem les paraules. Hi ha aspiracions, propostes i objectes que, per molt raonables que siguin, són només instruments per a aconseguir un determinat objectiu final; però en canvi es presenten i proclamen com a “objectius”. Les mesures socials i polítiques i les millores tecnològiques són instruments, no objectius. L’objectiu final, segons Majó, hauria de ser organitzar la societat de manera que el màxim nombre de persones del planeta (jo diria totes) tinguin una vida digna i feliç. A les ciutats passa el mateix: es parla molt de ciutats intel·ligents però poca gent es planteja quin és l’objectiu d’aquestes ciutats del futur. Volem que tota la gent visqui bé i sigui feliç amb una vida digne, o volem que tot sigui ràpid i automàtic? Volem prioritzar l’educació i la cultura o ja ens està bé l’oci que ofereix el mercat?

L’interessant de tot això és que té molta relació amb la informàtica. Un aspecte essencial del pensament informàtic és el de separar l’especificació de la implementació. Podríem dir que l’especificació és el planteig correcte d’un determinat problema, de manera completa i no ambigua. La implementació és en canvi la pròpia solució del problema, que en el cas concret de la informàtica implica el disseny d’algorismes i programes i l’ús adequat de recursos hardware i software ja existents. Una de les regles d’or de la informàtica és que la implementació comença un cop acaba l’especificació, perquè si no ho fem, ens trobarem embrancats en la resolució d’un problema que no sabem quin és i tal vegada trobarem solucions orfes de problema. Connectant ara amb el que dèiem de les ciutats, el problema és que hi ha molta gent que implementa i que proposa “invents” sense que els ciutadans sàpiguen els objectius i l’especificació del problema que es vol resoldre. Sí que hi ha objectius, però amagats:  pensem, per exemple, en els beneficis de les empreses que s’inventen aquests nous instruments i implementacions auto-batejats de ciutat intel·ligent. Però aquests no valen. Els objectius de futur d’una ciutat han de ser públics i definits pels seus ciutadans.

Tal vegada, un dels factors que pot explicar la mala fama de la tecnologia és el contrast entre la invasió constant d’informació que rebem sobre novetats suposadament espectaculars, i el poc que es parla d’objectius. Ara bé, en aquest desert dels objectius, de tant en tant trobem petits oasis com el que ens oferia, fa poc, en Gerardo Pisarello. Pisarello pensa que, en una ciutat democràtica, la tecnologia hauria de servir per apoderar digitalment la ciutadania, per protegir la seva privacitat davant dels abusos del poder públic i privat, per lluitar contra la corrupció i per avançar cap a una economia més equitativa i sostenible. En poques paraules, l’objectiu segons Pisarello hauria de ser conquistar sobirania tecnològica i digital, per al bé comú. Fixeu-vos que, en mig d’aquest garbuix de missatges publicitaris que rebem cada dia, tant en Ramon López de Mántaras com en Gerardo Pisarello i en Joan Majó insisteixen en la necessitat de definir objectius polítics (de la polis) i proclamen que el be comú és per damunt dels beneficis dels que fabriquen i venen els instruments.

Hem d’estar molt atents per a que no ens enganyin i per evitar situacions com la que imagina en Carles Capdevila quan diu que farem unes smart cities de nassos on els cotxes conduiran sols, però on els ciutadans continuarem veient trepitjats els nostres drets i la dignitat per gent que té un mínim poder amb una barreja explosiva d’arrogància, deixadesa i incompetència. La imatge de dalt, de l’àgora d’Atenes, ens recorda que l’objectiu central de les ciutats són els ciutadans, els seus habitants. Perquè tota implementació (el disseny concret d’una ciutat, en aquest cas) requereix abans una especificació que defineixi els objectius que volem assolir. Sempre que ens parlin d’un nou giny, d’un nou sistema o d’un nou servei, es bo fer l’exercici d’avaluar-lo en base als objectius, siguin declarats o no. Serveix als interessos comuns, o només als interessos privats dels que el publiciten? Beneficia a la gent, o només als qui ens volen fidelitzar?

——

Per cert, en George Steiner diu que l’error és el punt de partida de la creació, i que si ens fa por equivocar-nos, mai podrem assumir els grans reptes. Diu que cal pensar en utopies i equivocar-se, per no caure a la dictadura de la certesa.

Músiques, dibuixos i Pitàgores

dijous, 13/08/2015

Després de l’article sobre els cercadors de melodies i l’espai de les músiques, em vaig quedar amb ganes de parlar una mica més de les tècniques d’aprenentatge automàtic. El comentari de Jordi Domènech que podeu llegir en aquesta mateixa pàgina i un treball que acabo de llegir sobre dibuix automàtic amb imatges predissenyades, m’han acabat de decidir. El que segueix és una estranya barreja de Pitàgores, música i dibuixos.

Els dos dibuixos d’aquí al costat són composicions fetes a partir d’imatges o icones predissenyades. És el que els anglesos anomenen “clip art”. Quin us agrada més, dels dos? Jo trobo millor el de la dreta. Doncs bé, el de l’esquerra l’ha fet una persona mentre que el de la dreta l’ha generat un ordinador que havia estat prèviament entrenat i que havia anat aprenent.

Tot plegat és un tema de semblances. Són semblants, l’arbre de l’esquerra i el de la dreta? I les flors de dreta i esquerra? I els gossos, els núvols i els dos Sols? Deixant de banda els arbres, probablement estareu d’acord amb mi en què els dibuixos de l’esquerra i la dreta no són gaire semblants. Però podem anar més enllà i parlar de semblança d’estils. Si ens agrada més la composició de la dreta és probablement perquè els estils de les imatges que la componen (gos, flors, núvol, etc.) són més semblants que en el cas de la composició de l’esquerra. Doncs bé, l’ordinador que ha creat aquest dibuix automàtic ho ha pogut fer perquè sap mesurar semblances, amb el que ha pogut escollir les imatges individuals amb criteri de similitud i harmonia d’estil. Aquest algorisme d’aprenentatge automàtic (que podeu consultar en aquesta web, d’on també he extret la imatge de dalt, on trobareu el text de l’article complet, bastant tècnic) treballa en un seguit de passos ben definits i coneguts. El primer que hem de fer és aconseguir molts dibuixos i definir un conjunt de característiques o descriptors que els identifiquin, per codificar-los un a un. Això és fonamental, perquè els ordinadors no entenen de dibuixos ni de música. El conjunt de descriptors d’un dibuix és com el seu nom, és un conjunt de símbols que el representen i l’identifiquen; La única diferència amb el nostre llenguatge és que els descriptors són numèrics. Em el cas de l’algorisme automàtic de generació de composicions de dibuixos que estem comentant, cada dibuix individual, sigui un arbre, un núvol, una representació del Sol o un gos, es representa amb un conjunt de 169 descriptors numèrics. En aquest primer pas, es van escollir dos-cents mil dibuixos individuals a partir d’aquesta biblioteca de dibuixos, i es van calcular els 169 descriptors per a cada un d’ells. Per què tants dibuixos? Per què tants descriptors per a cada dibuix? Doncs perquè sempre és millor pecar per massa que per massa poc, diuen, i perquè si ho volguéssim fer amb pocs descriptors incrementaríem la probabilitat d’oblidar-nos d’alguna característica important. Només a caire d’exemple, en aquest cas alguns dels descriptors són el nombre de colors, el gruix dels contorns del dibuix i el grau de gradació de color, que mesura si els colors acaben de cop o bé es van difuminant.

Un cop hem fet aquesta feina d’identificar amb 169 descriptors tots els dibuixos de la nostra ben nodrida col·lecció, podem demanar ajut a Pitàgores i mesurar la semblança entre una parella qualsevol de dibuixos A i B simplement calculant la distància entre els punts corresponents als nostres dos dibuixos en l’espai dels dibuixos, un espai que, quasi res, té una dimensió igual a 169!. Les semblances es calculen mesurant distàncies, que no són més que longitud d’hipotenuses. Tot plegat és fàcil d’imaginar si pensem en aquest espai dels dibuixos, en el que cada dibuix queda representat com un punt (si només tinguéssim tres descriptors, podríem pintar aquests punts a l’espai 3D). Si dos dibuixos són semblants, els seus descriptors també seran similars i quedaran representats per punts propers a poca distància l’un de l’altre. Per això, els ordinadors mesuren semblances calculant distàncies i calculen distàncies amb el teorema de Pitàgores. Si (miraculosament) haguéssim encertat i tots els nostres descriptors fossin igual de rellevants, podríem mesurar semblances amb les corresponents distàncies Euclidianes (vegeu la nota al final) i dir que el quadrat de la mesura de la semblança entre dos dibuixos en l’espai dels dibuixos individuals és el resultat de restar els valors de cada una de les parelles homòlogues de descriptors a un i altre dibuix, elevar totes aquestes 169 diferències al quadrat, i sumar-les. Però això no és cert, perquè segur que alguns dels descriptors que hem pensat seran més significatius que d’altres, i tot plegat només funcionarà bé si donem més pes als més importants. Un dels algorismes més senzills (vegeu un cop més la nota al final; i observeu que en aquest cas la distància ja no serà Euclidiana) d’aprenentatge automàtic consisteix en donar un pes a cada descriptor. Tindrem 169 paràmetres o pesos. I ara, el quadrat de la mesura de la semblança entre dos dibuixos en l’espai dels dibuixos individuals serà el resultat de restar els valors de cada una de les parelles homòlogues de descriptors a un i altre dibuix, multiplicar cada una d’aquestes 169 diferències pel seu pes, elevar els resultats al quadrat, i sumar-los tots. Estarem aplicant el teorema de Pitàgores tot donant més importància a uns catets que als altres.

Sembla que ja ho tenim quasi tot. Cada dibuix es representa amb els valors dels seus 169 descriptors, i la generalització del teorema de Pitàgores a n dimensions ens permet calcular semblances entre dibuixos. La única cosa que ha de fer l’ordinador per a generar una composició de dibuixos com la que tenim a dalt és trobar, en l’espai dels dibuixos, un arbre, unes flors, un gos, un núvol i un Sol tals que les distàncies entre tots ells siguin petites. Hem convertit el fet de fer un dibuix en el problema geomètric de trobar punts propers. Només queda un detall. Hem de saber quins són els pesos que donarem als diferents descriptors. I això, en el treball que estic comentant, es va fer amb tècniques d’aprenentatge automàtic supervisat (en concret, tècniques d’aprenentatge de la mètrica). En aquest cas es van escollir moltes tripletes de dibuixos A, B, C, i es va demanar a molts voluntaris que en cada cas contestessin si A era més semblant a B que no pas a C o si pel contrari, A era més semblant a C que no pas a B. Cada tripleta de dibuixos A, B, C va ser analitzada per 10 voluntaris diferents, per tal d’evitar opinions extremes. L’algorisme d’aprenentatge automàtic supervisat va calcular el conjunt de pesos de manera que el resultat fos concordant amb el que havien dit els voluntaris: si aquests havien vist, per exemple, que A era més semblant a B que no pas a C, els pesos havien de ser tals que la distància entre A i B fos més petita que la distància entre A i C, i així en tots els casos. L’interessant de tot plegat és que es va veure que 91 dels 169 descriptors acabaven tenint un pes nul. En els dibuixos, només 78 descriptors són rellevants. Els altres 91 no són informatius.

En resum: si volem que el nostre ordinador pugui calcular la semblança entre dibuixos per així poder generar noves composicions gràfiques, hem de definir un nombre (elevat) de descriptors que caracteritzin cada dibuix i hem de calcular els paràmetres (els pesos, en el nostre cas) que finalment ens permetran calcular distàncies (semblances) entre dos dibuixos qualsevol. L’aprenentatge automàtic és el procés que calcula el conjunt de paràmetres que conformaran el model de l’espai dels dibuixos i que permetran el càlcul correcte de distàncies entre els mateixos.

Doncs bé, si volem identificar músiques, el que ens cal és tenir una biblioteca de músiques ja identificades i trobar la més semblant a la que estem escoltant. Per a fer-ho, hem de definir un nombre (elevat) de descriptors que caracteritzin cada música i hem de calcular els paràmetres (els pesos, en el nostre cas) que finalment ens permetran calcular distàncies (semblances) entre qualsevulla dues melodies. L’aprenentatge automàtic és el procés que calcula el conjunt de paràmetres que conformaran el model de l’espai de les músiques i que permetran el càlcul correcte de distàncies entre aquestes.

Aprendre a mesurar semblances entre dibuixos és molt semblant a aprendre a calcular similituds entre músiques. Tot passa per tenir un bon conjunt de descriptors. En el cas de la música, el que és bastant habitual és calcular la transformada de Fourier de petits fragments solapats (d’uns 25 mil·lisegons cada un), convertir les freqüències en unitats adaptades al nostre sistema psicoacústic (les anomenades unitats mel, MFCC) i considerar com a descriptors els pics de freqüència més grans que un cert valor. Els descriptors són els ingredients de l’aprenentatge automàtic, un camp que és molt més ampli que el que he explicat, que inclou tècniques com les anomenades xarxes neuronals i que, en poques paraules, vol aconseguir algorismes que sàpiguen generalitzar a partir de la seva experiència.

Les tècniques d’intel·ligència artificial són en el centre d’un debat ètic. Poden servir per identificar músiques i compondre dibuixos, però també per rastrejar grans quantitats d’informació (el “big data”) i acabar sabent més sobre nosaltres del que podem imaginar. Són eines de doble tall. De totes maneres, Neil Lawrence diu, crec que amb molt encert, que a ell no li preocupen les màquines sinó les persones. L’aprenentatge automàtic i la intel·ligència artificial poden ser un perill, però no pas per les raons que molts pensen. El problema no són els ordinadors ni els algorismes, sinó els humans. El perill és que hi haurà qui les voldrà utilitzar com armes per a enfonsar i destruir els demés mentre incrementa el seu poder.

Per cert, en Xavier Roig diu que per tal de controlar les fronteres exteriors d’una manera efectiva caldria implantar una autoritat única per a tot Europa, perquè el tractat de Schengen de lliure circulació de persones és una bona idea mal implantada.

—–

NOTA (quasi idèntica a la d’aquest article): El teorema de Pitàgores diu, com sabem, que el quadrat de la hipotenusa d’un triangle rectangle és igual a la suma de quadrats dels catets. Això, clar, és en el pla, en dues dimensions. Però una de les coses interessants d’aquest teorema és que serveix per a qualsevol dimensió. Si tenim dos punts P i Q en un mapa i volem calcular la distància que els separa per saber si són propers o llunyans, podem pintar un triangle rectangle i començar calculant la diferència b entre les seves latituds (que correspon a la longitud del catet nord-sud) i la separació c entre les seves longituds (que correspon a la longitud del catet est-oest). Si b i c els expressem en quilòmetres i si no són massa grans, podrem menysprear la curvatura de la Terra, suposar que el triangle és pla, i calcular el quadrat de la distància entre P i Q amb el teorema de Pitàgores, fent b*b+c*c. Ara bé, aquest càlcul només serà cert si som en una comarca plana. Si P és a la vora del mar i Q és dalt d’una muntanya a 1000 metres, el teorema de Pitàgores en tres dimensions ens diu que el quadrat de la distància entre P i Q és b*b+c*c+h*h, on h és la diferència d’alçades entre els dos punts. En tres dimensions, el teorema de Pitàgores té tres termes. I no és difícil veure que això es compleix en qualsevol dimensió. El quadrat de la distància (anomenada Euclidiana) entre els punts que representen dues melodies en l’espai de les músiques (espai que podem suposar, per exemple, de dimensió 450) és el resultat de restar els valors de cada una de les parelles homòlogues de gens a una i altra melodia, elevar totes aquestes diferències al quadrat, i sumar-les. i el quadrat de la distància (anomenada Euclidiana) entre els punts que representen dos dibuixos en l’espai dels dibuixos individuals (espai que podem suposar, en aquest cas, de dimensió 169) és el resultat de restar els valors de cada una de les parelles homòlogues de descriptors a un i altre dibuix, elevar totes aquestes diferències al quadrat, i sumar-les. Només amb un petit detall: no totes les diferències “valen igual”, hem de donar més importància a unes que a les altres. És el mateix que passa amb els punts dels mapes. Si veiem que la distància en horitzontal (arrel quadrada de b*b+c*c) entre els nostres punts P i Q és de 10 quilòmetres, és fàcil veure que amb una diferència d’alçades de 1000 metres, la nova distància Euclidiana, arrel de b*b+c*c+h*h és de 10 quilòmetres i 50 metres. La línia recta entre P i Q només s’allarga 50 metres quan el punt Q puja 1000 metres. És el que ens diu la geometria, que no coincideix pas amb el que ens diu el nostre cos perquè la nostra percepció subjectiva de distància és bastant més petita quan P i Q són a una mateixa plana que quan Q és dalt d’una muntanya. Com podem calcular aquestes distàncies subjectives? És fàcil, només cal donar més importància a les alçades. És el que en geometria es diu “canviar la mètrica”. És com si canviéssim l’escala vertical. Podem calcular distàncies subjectives en els mapes si canviem una mica la formula i escrivim b*b+c*c+w*h*h, on w és el pes o importància que volem donar a les alçades. Quan fem el càlcul amb w=1 obtenim la distància Euclidiana mentre que si el fem, per exemple, amb w=100, obtenim un valor molt més proper a la nostra percepció subjectiva. I ara, tornant al cas de les distàncies entre melodies o dibuixos, el que fan els programes de reconeixement va en aquesta línia de donar pesos diferents als diferents descriptors i treballar amb una mètrica no Euclidiana: cal restar els valors de cada una de les parelles homòlogues de gens a una i altra melodia o dibuix, elevar totes aquestes diferències al quadrat, multiplicar cada un d’aquests quadrats pel seu pes, i sumar-los. Els pesos es calculen habitualment amb algorismes d’aprenentatge automàtic.

L’oligarquia de les dades

dimecres, 1/04/2015

Les dades són la nova eina de poder. Ho explica molt bé en Neil Lawrence, professor d’intel·ligència artificial a la Universitat de Sheffield, en un article que publicava fa poc el diari The Guardian.

En Neil Lawrence parla del poder dels bancs i del poder de les dades. El poder dels bancs es basa en el capital que acumulen. Però el més modern, ara mateix, és aconseguir poder tot acumulant dades. Les dades són els diners del futur. A internet hi ha moltíssimes dades de tots nosaltres, més de les que imaginem. Analitzant-les, contrastant-les i relacionant-les és possible entendre cada cop millor la gent, els grups i fins i tot les persones. Són tècniques de doble fil, com moltes d’altres. És ben segur que ens serviran per a dissenyar noves eines de diagnosi i tractament mèdic i nous recursos per a les persones grans que viuen soles. Però també s’estan utilitzant com a eines de control, de publicitat invasiva i fins i tot d’atac. Amb una gran diferència: tothom sap que els bancs són dipositaris dels nostres diners, i que els podem anar a buscar sempre que vulguem. En canvi, no tenim cap control sobre les nostres dades i no les podem recuperar ni esborrar. S’han quedat al “núvol” d’internet, se les han quedat.

Fa molts anys que es parla d’intel·ligència artificial. Fa cinquanta anys, quan tot just es començava a parlar dels ordinadors, ja hi havia qui els anomenava cervells electrònics. És una disciplina que ha estat molt temps en hibernació: fins fa poc se’n parlava més en escrits de ciència ficció que en texts científics. Però els nous algorismes d’aprenentatge automàtic, l’anomenat machine learning, ho estan estan començant a canviar tot. Les dades de les xarxes socials, del que graven les càmeres de vigilància, del que ens interessa quan cerquem informació a internet, de les nostres transaccions amb targetes de crèdit i de molt del que fem cada dia es guarden “al núvol” d’internet i serveixen per a que les màquines, els ordinadors, vagin aprenent. El volum de dades és ingent (per això es parla de big data), però els humans hem sabut dissenyar bons algorismes d’aprenentatge just en el moment en el que els ordinadors han assolit la mida crítica necessària. Hem aconseguit que els ordinadors sàpiguen analitzar, filtrar i utilitzar les dades disponibles. Ha estat un canvi radical. Fa deu anys, havíem de programar els ordinadors per a que fessin les tasques que desitjàvem. Ara, en canvi, els programem per a que interpretin informació i es vagin auto-programant en funció d’aquestes dades que van trobant a internet. Aquest aprenentatge automàtic en base a la informació és dinàmic i adaptatiu, perquè l’auto-programació es va perfeccionant constantment: els actuals ordinadors analitzen les dades mentre aprenen de la seva experiència, si em permeteu el símil en termes humans. Tenim un bon exemple en el sistema traductor de Google, en el que les traduccions no es basen en regles sintàctiques prefixades, sinó en l’anàlisi dels texts ja traduïts que trobem a internet.

En Neil Lawrence parla d’un bon nombre de científics, entre ells l’Stephen Hawking, que demanen que es reguli la recerca en intel·ligència artificial. Però diu, amb molt encert, que a ell no li preocupen les màquines sinó les persones. La intel·ligència artificial pot ser un perill, però no pas per les raons que molts pensen. No ho serà pel que pot significar el fet de tenir màquines intel·ligents, sinó perquè hi haurà qui les voldrà utilitzar com armes per a enfonsar i destruir els demés mentre augmenta el seu poder.

El problema no són les dades ni els ordinadors. El problema és la concentració de poder, d’un poder immens, en mans de molts pocs. El que ens ha de preocupar, diu en Neil Lawrence, són els nous oligarques de les dades, siguin individus, governs o empreses, que han vist l’oportunitat de fer-se rics i augmentar el seu poder amb dades que no els pertanyen. En Neil Lawrence demana una democràcia de les dades, una democràcia on l’objectiu siguin les persones i on només es pugui actuar amb consentiment d’aquestes persones. Cal una regulació relativa a la propietat de les dades, per a que quan som observats, quan cerquem informació a internet o quan deixem dades al “núvol” no haguem de pensar que estem reproduint el pacte de Faust amb el diable. De fet, en aquests moments estem ben desprotegits: ja hem vist que podem anar al banc i demanar els nostres diners, però no podem fer que esborrin les nostres dades del “núvol”. És just que hi hagi una oligarquia que tregui profit de les nostres dades, fins i tot en certs casos en contra nostra?

Per cert, la Margot Wallström, ministra sueca d’afers estrangers, va denunciar el tracte que es dóna a les dones a Arabia Saudí, dient que els seus mètodes són medievals i un atemptat cruel que vol silenciar les formes modernes d’expressió. Sembla que els altres països Europeus no tenen intenció de donar-li suport i que fins i tot té problemes al seu país, per haver gosat dir això.