Entrades amb l'etiqueta ‘aprenentatge automàtic’

La personalitat de la Tay

divendres, 1/12/2017

La Tay va ser un robot dissenyat per conversar. Era un “ChatBot“, terme que no és més que una contracció de xerraire (chatter) i robot, i que va ser proposat l’any 1994 per en Michael Mauldin. Aquests robots són programes informàtics que simulen converses, participen en xats, i es comuniquen amb persones. Els més habituals i senzills analitzen paraules clau de la nostra pregunta i construeixen la seva resposta tot consultant una base de dades de paraules i expressions. Moltes vegades els hem de patir en els sistemes telefònics d’atenció al client i en alguns centres de trucades. Són robots de xat específics per a converses relacionades amb un propòsit determinat i no per a qualsevol tipus de comunicació humana.

La imatge, que podeu trobar a aquesta web, és la que van escollir els creadors de la Tay. Val a dir que els robots xerraires són ben peculiars. No són materials. Són conjunts de bits, programes informàtics que necessiten un ordinador per a poder reaccionar i actuar. Els anomenem robots perquè reaccionen als nostres estímuls, actuant i creant respostes. Pertanyen, en definitiva, al que ara anomenem “aplicacions”. En tot cas, la Tay era especial, perquè tenia això que diem “intel·ligència artificial”. Les seves reaccions no estaven programades, sino que eren conseqüència del que havia après. Contestava en base al que “sabia”, i cada nova pregunta li servia per aprendre una mica més. Va ser creat per Microsoft amb aquest nom, Tay, que no és més que un acrònim: “Thinking about you“. Tay va ser dissenyat per imitar la conducta d’una noia nord-americana de 19 anys. Tenia un sofisticat sistema d’aprenentatge profund que li permetia aprendre mentre anava interactuant amb usuaris humans. I el 23 de març de 2016 va iniciar la seva aventura com una usuària més de Twitter. Va ser, però, una aventura ben curta, de només dos dies. En només 16 hores, Tay va enviar més de 96.000 tuits mentre s’anava fent racista i mentre anava enviant missatges cada cop més xenòfobs i amb més càrrega sexual. El van haver de desconnectar i Microsoft es va disculpar públicament.

Tay havia estat dissenyada per a fer-se més intel·ligent a mesura que els usuaris (sobretot els joves) anessin interactuant amb ella i li anessin enviant tuits. Però es va trobar en un entorn on bàsicament només hi havia violència, intolerància i insults. I ràpidament s’hi va adaptar, difonent tot tipus de frases racistes i masclistes i un bon nombre d’invectives d’odi. Va aprendre ben ràpid de tot allò que els humans li van tuitejar. La primera reacció de l’empresa va ser dir que Tay era una “màquina d’aprenentatge” i que algunes de les seves respostes eren inadequades, també indicatives dels tipus d’interaccions que algunes persones tenen amb ella. Però desprès, l’empresa va haver d’admetre que l’experiment no havia anat bé. Tot i que una de les directores de l’empresa, Satya Nadella, creu que aquest tipus de robots de xat són el futur de les aplicacions pels mòbils i que aviat els acabarem tenint al correu electrònic i a la missatgeria, el cert és que cal trobar maneres de prevenir que els usuaris d’internet puguin influir de manera negativa en ells per tal de garantir el respecte als principis ètics.

El sistema d’aprenentatge profund de Tay i de moltes altres aplicacions actuals d’intel·ligència artificial, es basa en una xarxa neuronal de moltes capes, en general més de 10. Justament, el terme “aprenentatge profund” (Deep Learning) es deriva d’aquest fet que es treballa en múltiples capes, capes que treballen d’una manera que recorda el funcionament de les neurones del cervell amb les seves connexions. Cada cop que Tay rebia un tuit, els seus 140 caràcters s’enviaven a la primera capa de “neurones”. Les capes d’una xarxa neuronal són una munió de cel·les, cada una de les quals pot guardar un valor. En aquest cas, les cel·les de la primera capa acabaven guardant informacions diverses sobre el contingut, les paraules i l’extensió del tuit. Després, i a travès del gran entramat de connexions que hi ha entre totes les cel·les de la primera capa i les de la segona, es calculen els valors de les cel·les de la segona capa de manera tal que el valor que acaba guardant cada una d’aquestes cel·les és una barreja, amb coeficients i funcions específiques per cada connexió cel·la-cel·la, de tots els valors de les cel·les de la primera capa amb les que està connectada. Aquest procés es repeteix tantes vegades com capes té la xarxa neuronal, i el que surt de la combinació de valors de les cel·les de la darrera capa és el tuit de resposta. Tot i que l’estructura no és difícil d’entendre, una xarxa neuronal profunda només funcionarà de manera acceptable si els coeficients i funcions associats a totes i cada una de les connexions entre capes estan ben ajustats. I aquests són justament els valors que contenen “l’aprenentatge” que ha anat fent el sistema. Cada nou tuit que rebia Tay generava una resposta, però a més, ajustava una mica els coeficients i funcions associats a totes i cada una de les connexions entre les seves cel·les neuronals. Com a nosaltres, a Tay, l’experiència l’anava configurant i anava marcant la seva personalitat tuitera. L’únic problema és que Tay era massa innocent i s’ho creia tot.

Les aplicacions d’aprenentatge profund basada en xarxes neuronals de moltes capes estan revolucionant la intel·ligència artificial. Cada cop són més a la nostra vida quotidiana i cada cop hi seran més. Traducció automàtica, reconeixement de cares, publicitat personalitzada segons els interessos que se suposa que tenim, i una llista que no s’acaba. Però hem de tenir present que són una eina, i que les eines no serveixen per tot. Els martells van bé per clavar claus, però si tenim un cargol, millor que agafem un tornavís. En aplicacions d’aprenentatge profund, cal tenir en compte com a mínim tres eixos: el d’acceptació d’errors, el de la mida de les dades i el de la seva qualitat. El primer, el de l’acceptació d’errors, té relació amb l’ús que en vulguem fer, i amb un tret inherent a les aplicacions d’aprenentatge profund i a les xarxes neuronals: no sempre l’encerten, a vegades s’equivoquen, i a més és difícil saber el seu grau de fiabilitat. No ens ha d’estranyar. Nosaltres ens equivoquem, i les noves eines de la intel·ligència artificial, que ens volen emular, també. El que passa és que en alguns casos els errors són acceptables i en d’altres, no. Si estem traduint un text i la frase que ens dona el sistema de traducció no té sentit, la corregirem i no passa res. Però si un metge està planificant una operació quirúrgica i el sistema s’equivoca, el resultat pot ser fatal. Per això, en aquest eix d’acceptació d’errors, la traducció automàtica pot conviure amb moltes equivocacions i en canvi la planificació quirúrgica o el disseny de ponts no (per posar dos exemples). El segon eix, el de la mida de les dades, indica una cosa força lògica. Ens diu que l’aprenentatge automàtic millora a mesura que incrementem el nombre de dades que li subministrem per a que aprengui. I el tercer, el de la seva qualitat, ens fa veure que l’aprenentatge necessita dades fiables, ben contrastades i diverses. En aquest context, ara sabem que les aplicacions d’aprenentatge profund basades en xarxes neuronals són eines que només serveixen quan podem acceptar un cert nivell d’errors, quan podem fer que aprenguin amb moltíssimes dades (l’anomenat Big Data) i quan aquestes dades són de qualitat. És el que passa justament a la traducció automàtica: Google, per exemple, disposa de moltíssims exemples de traduccions de qualitat, fetes per traductors professionals, que utilitza per a que els seus sistemes aprenguin. I això és justament el que no va passar amb el robot Tay, que bevia d’informació esbiaixada i de baixa qualitat. I és el perill de moltes aplicacions i sistemes que ens poden arribar (una de les quals són les polèmiques i molt perilloses armes autònomes). Cal estar ben atents, perquè la intel·ligència artificial pot ser una bona eina en aquells casos en que ens trobem ben situats als tres eixos, però pot ser funesta si la volem fer servir per allò que no ens pot resoldre.

Si voleu tenir un sistema de resposta automàtica a consultes no crítiques i sabeu com preparar un bon mecanisme d’aprenentatge basat en moltíssimes dades fiables, les aplicacions d’intel·ligència artificial us poden aportar una bona solució. Però si el que voleu, per exemple, és dissenyar un rellotge de sol, no us hi penseu, i apunteu-vos als algorismes clàssics de la geometria i astronomia. I si no us podeu permetre que el sistema de resposta automàtica s’equivoqui, penseu en solucions alternatives, fiables i deterministes. Els martells, usem-los per clavar claus.

——

Per cert, en Ferran Sáez Mateu diu que les anomenades “xarxes socials” estan substituint o, com a mínim, començant a desplaçar la noció clàssica d’opinió pública. Pensa que el periodisme del segle XXI ha de ser capaç de perfilar una identitat pròpia en relació a la de les xarxes socials.

Els algorismes que aprenen

dijous, 9/02/2017

Hi ha paraules boniques que també ens fan una mica de por. Poca gent sap que la seva vida és plena d’algorismes. Alguns, quan se’n adonen, no saben si ho han d’acceptar o s’han de posar nerviosos. I el cert és que, tot i que no els reconeguem i que pensem que no ens afecten, els portem sempre al nostre costat.

Un algorisme no és més que un conjunt ordenat, finit i no ambigu de regles i operacions que permeten resoldre un problema o realitzar una determinada activitat. Els algorismes són descripcions precises de processos que fem o que fan els altres. Les instruccions per muntar un moble a partir d’un kit de peces o el full on expliquem com posar en marxa la calefacció quan marxem de casa i han de venir uns amics, són algorismes. Les receptes de cuina i les partitures musicals són algorismes per preparar menjars i interpretar melodies. I ho són les instruccions de qualsevol joc, els manuals d’usuari i els protocols que segueixen els metges als hospitals. Algunes vegades, els algorismes els podem escriure per a nosaltres mateixos, quan acabem de descobrir alguna cosa complexa que ens ha estat útil (per exemple en el nostre mòbil), i volem no oblidar-la. En altres ocasions, les escrivim per a que algú altre pugui fer més endavant quelcom que nosaltres ja sabem fer. És per això que el conjunt de regles d’un algorisme ha de ser no ambigu: si no l’escrivim bé, la persona que vingui a casa no entendrà com engegar el rentaplats o com posar en marxa la calefacció.

Espero no guanyar-me el mot de “friqui” si confesso que m’agrada la paraula “algorisme”. Tal vegada perquè ha estat al meu costat durant quasi cinquanta anys, i perquè ve de molt lluny. Concretament d’ara fa 1.150 anys, quan al-Khwarazmí treballava a l’observatori de Bagdad. Durant els segles de l’edat mitjana, al-Khwarazmí va ser la principal font de transmissió de coneixements matemàtics de l’Orient a l’Occident, en part en base a les traduccions de textos en grec, llatí i sànscrit que es feien a la Casa de la Saviesa. En el seu tractat d’àlgebra, “Hissab al-jabr wa-l-muqàbala“, explicava regles i receptes (o sigui, algorismes) per repartir herències, cosa que en aquell temps i en el món àrab era molt complicada i requeria fer molts càlculs. En un altre llibre, “Sobre el càlcul amb nombres indis”, llibre del que només se’n conserva una traducció del segle XII, al-Khwarazmí va explicar, sembla que per primera vegada, el sistema de numeració posicional en base 10 (incloent el zero) que va aprendre de l’Índia i que és el que ara utilitzem. Fa més de 11 segles, al-Khwarazmí ens va deixar llibres meravellosos, tots plens d’algorismes. És per això que els algorismes porten el seu nom.

Quan sumem nombres portant-ne, estem aplicant l’algorisme que vam aprendre a l’escola; i, quan multipliquem, també. Euclides ens va deixar un algorisme molt elegant per calcular el màxim comú denominador de dos nombres, i Pitàgores ens va explicar l’algorisme per calcular hipotenuses i distàncies entre punts. Després, amb els ordinadors, hem acabat tenint algorismes per tot. Perquè els ordinadors i els telèfons mòbils només funcionen en base als algorismes que alguns programadors els han preparat. Totes les aplicacions que ens hem baixat als nostres mòbils són algorismes. Tenim algorismes per millorar fotos, per cercar informació a internet, per saber la posició dels astres i per preveure el temps que farà demà. Tenim algorismes que ens troben el nom de les músiques que escoltem, i algorismes que saben traduir textos d’un idioma a un altre.

I ara, el que hem començat a veure fa pocs anys són algorismes que es van refinant amb les dades. Són algorismes que aprenen, algorismes que conformen els mecanismes d’aprenentatge automàtic que es troben en el nucli de l’anomenat “big data“. Hi ha moltíssims exemples, un dels quals, molt il·lustratiu, el teniu en aquest document (que és un pòster científic presentat ara fa uns mesos; com podeu observar, la imatge de dalt és d’aquest mateix document). Es tracta d’un algorisme que, a partir d’una gravació de vídeo de 15 segons en la que s’ens demana que expliquem qui som, fa una valoració de la nostra personalitat en cinc eixos diferents, i ens ho mostra amb 5 bandes verdes (les que veieu a la dreta de la imatge) al cap de menys de tres segons. Aquests cinc eixos són els de la curiositat (gent inventiva i curiosa versus gent cautelosa), escrupolositat (gent eficient i organitzada versus gent descurada i desordenada), extraversió (gent extravertida i energètica versus gent reservada i solitària), agradabilitat (gent amigable i compassiva versus gent poc social) i neuroticisme (gent neuròtica versus gent fiable). Com ho fa? Doncs amb un algorisme que conté dues xarxes neuronals de 17 nivells, una per la senyal de vídeo i l’altra per la d’àudio, amb un darrer nivell de fusió de les dues, com bé podeu veure a la figure 3 del document. Cada un dels 17 nivells d’una i altra xarxa combina adequadament els resultats del nivell anterior i genera una sortida que transmet a algun o alguns dels nivells següents. Cada nivell és com una taula de mescles de so, però digital. Barreja les entrades per tal de produir el senyal de sortida. En resum, fem 17+17+1 mescles, i acabem trobant els trets de personalitat de la persona que ha estat parlant durant 15 segons al vídeo. Però, com fem aquestes mescles? Com ajustem la importància que donarem a cada un dels valors d’entrada a cada una de les mescles? Com ajustem el valor de cada un dels “potenciòmetres” de la nostra xarxa neuronal?. En el cas de l’article que comento, això es va fer amb un sistema d’aprenentatge dirigit. Amb anterioritat als experiments, els autors, amb l’ajut de molts voluntaris, van analitzar deu mil vídeos de 15 segons de YouTube. Cada voluntari, a cada prova, presenciava una parella de vídeos (corresponents a dues persones) i després havia de dir quina de les dues persones creia que era la més curiosa, quina la més extravertida, .. i així fins analitzar el cinquè eix de neuroticisme. Cal observar que no es demanava cap valoració, únicament havien de comparar la parella de persones que estaven veient. Això es va fer així perquè és ben conegut que les comparacions les fem molt millor que les valoracions. Doncs bé, la informació d’aquests experiments amb 10.000 vídeos és la que va permetre ensinistrar els  mescladors dels 17+17+1 nivells de l’algorisme i ajustar els seus valors. Però això no va acabar aquí. L’interessant és que l’algorisme va continuar i continua aprenent, perquè quan el sistema ja estava ajustat i “trained” (mireu la imatge de dalt), l’anàlisi del vídeo de cada nova persona que vol experimentar aquesta aplicació i que dona la corresponent autorització per usar les seves dades, serveix per acabar d’ajustar una mica més els paràmetres de tots els nivells de la xarxa neuronal. El sistema va aprenent cada dia, i cada persona que l’utilitza l’ajuda a fer-ho. Només cal que digui si creu que el resultat que li mostra la màquina reflexa la seva personalitat o no, perquè això és l’únic que necessita la xarxa neuronal per auto-refinar-se.

Per bé o per mal (esperem que per bé), els algorismes que aprenen han arribat, i han vingut per quedar-se amb nosaltres. Ens poden ser molt útils, però no hem de perdre mai de vista la necessitat de la seva regulació ni els aspectes ètics. Els algorismes són aquí, però la responsabilitat sempre serà de les persones que els utilitzen.

Per cert, en Christophe Galfard diu que sense una visió científica, la democràcia es torna més complicada. També diu que la humanitat no és conscient del seu lloc a l’Univers, que només ara ho estem començant a entreveure.

Músiques, dibuixos i Pitàgores

dijous, 13/08/2015

Després de l’article sobre els cercadors de melodies i l’espai de les músiques, em vaig quedar amb ganes de parlar una mica més de les tècniques d’aprenentatge automàtic. El comentari de Jordi Domènech que podeu llegir en aquesta mateixa pàgina i un treball que acabo de llegir sobre dibuix automàtic amb imatges predissenyades, m’han acabat de decidir. El que segueix és una estranya barreja de Pitàgores, música i dibuixos.

Els dos dibuixos d’aquí al costat són composicions fetes a partir d’imatges o icones predissenyades. És el que els anglesos anomenen “clip art”. Quin us agrada més, dels dos? Jo trobo millor el de la dreta. Doncs bé, el de l’esquerra l’ha fet una persona mentre que el de la dreta l’ha generat un ordinador que havia estat prèviament entrenat i que havia anat aprenent.

Tot plegat és un tema de semblances. Són semblants, l’arbre de l’esquerra i el de la dreta? I les flors de dreta i esquerra? I els gossos, els núvols i els dos Sols? Deixant de banda els arbres, probablement estareu d’acord amb mi en què els dibuixos de l’esquerra i la dreta no són gaire semblants. Però podem anar més enllà i parlar de semblança d’estils. Si ens agrada més la composició de la dreta és probablement perquè els estils de les imatges que la componen (gos, flors, núvol, etc.) són més semblants que en el cas de la composició de l’esquerra. Doncs bé, l’ordinador que ha creat aquest dibuix automàtic ho ha pogut fer perquè sap mesurar semblances, amb el que ha pogut escollir les imatges individuals amb criteri de similitud i harmonia d’estil. Aquest algorisme d’aprenentatge automàtic (que podeu consultar en aquesta web, d’on també he extret la imatge de dalt, on trobareu el text de l’article complet, bastant tècnic) treballa en un seguit de passos ben definits i coneguts. El primer que hem de fer és aconseguir molts dibuixos i definir un conjunt de característiques o descriptors que els identifiquin, per codificar-los un a un. Això és fonamental, perquè els ordinadors no entenen de dibuixos ni de música. El conjunt de descriptors d’un dibuix és com el seu nom, és un conjunt de símbols que el representen i l’identifiquen; La única diferència amb el nostre llenguatge és que els descriptors són numèrics. Em el cas de l’algorisme automàtic de generació de composicions de dibuixos que estem comentant, cada dibuix individual, sigui un arbre, un núvol, una representació del Sol o un gos, es representa amb un conjunt de 169 descriptors numèrics. En aquest primer pas, es van escollir dos-cents mil dibuixos individuals a partir d’aquesta biblioteca de dibuixos, i es van calcular els 169 descriptors per a cada un d’ells. Per què tants dibuixos? Per què tants descriptors per a cada dibuix? Doncs perquè sempre és millor pecar per massa que per massa poc, diuen, i perquè si ho volguéssim fer amb pocs descriptors incrementaríem la probabilitat d’oblidar-nos d’alguna característica important. Només a caire d’exemple, en aquest cas alguns dels descriptors són el nombre de colors, el gruix dels contorns del dibuix i el grau de gradació de color, que mesura si els colors acaben de cop o bé es van difuminant.

Un cop hem fet aquesta feina d’identificar amb 169 descriptors tots els dibuixos de la nostra ben nodrida col·lecció, podem demanar ajut a Pitàgores i mesurar la semblança entre una parella qualsevol de dibuixos A i B simplement calculant la distància entre els punts corresponents als nostres dos dibuixos en l’espai dels dibuixos, un espai que, quasi res, té una dimensió igual a 169!. Les semblances es calculen mesurant distàncies, que no són més que longitud d’hipotenuses. Tot plegat és fàcil d’imaginar si pensem en aquest espai dels dibuixos, en el que cada dibuix queda representat com un punt (si només tinguéssim tres descriptors, podríem pintar aquests punts a l’espai 3D). Si dos dibuixos són semblants, els seus descriptors també seran similars i quedaran representats per punts propers a poca distància l’un de l’altre. Per això, els ordinadors mesuren semblances calculant distàncies i calculen distàncies amb el teorema de Pitàgores. Si (miraculosament) haguéssim encertat i tots els nostres descriptors fossin igual de rellevants, podríem mesurar semblances amb les corresponents distàncies Euclidianes (vegeu la nota al final) i dir que el quadrat de la mesura de la semblança entre dos dibuixos en l’espai dels dibuixos individuals és el resultat de restar els valors de cada una de les parelles homòlogues de descriptors a un i altre dibuix, elevar totes aquestes 169 diferències al quadrat, i sumar-les. Però això no és cert, perquè segur que alguns dels descriptors que hem pensat seran més significatius que d’altres, i tot plegat només funcionarà bé si donem més pes als més importants. Un dels algorismes més senzills (vegeu un cop més la nota al final; i observeu que en aquest cas la distància ja no serà Euclidiana) d’aprenentatge automàtic consisteix en donar un pes a cada descriptor. Tindrem 169 paràmetres o pesos. I ara, el quadrat de la mesura de la semblança entre dos dibuixos en l’espai dels dibuixos individuals serà el resultat de restar els valors de cada una de les parelles homòlogues de descriptors a un i altre dibuix, multiplicar cada una d’aquestes 169 diferències pel seu pes, elevar els resultats al quadrat, i sumar-los tots. Estarem aplicant el teorema de Pitàgores tot donant més importància a uns catets que als altres.

Sembla que ja ho tenim quasi tot. Cada dibuix es representa amb els valors dels seus 169 descriptors, i la generalització del teorema de Pitàgores a n dimensions ens permet calcular semblances entre dibuixos. La única cosa que ha de fer l’ordinador per a generar una composició de dibuixos com la que tenim a dalt és trobar, en l’espai dels dibuixos, un arbre, unes flors, un gos, un núvol i un Sol tals que les distàncies entre tots ells siguin petites. Hem convertit el fet de fer un dibuix en el problema geomètric de trobar punts propers. Només queda un detall. Hem de saber quins són els pesos que donarem als diferents descriptors. I això, en el treball que estic comentant, es va fer amb tècniques d’aprenentatge automàtic supervisat (en concret, tècniques d’aprenentatge de la mètrica). En aquest cas es van escollir moltes tripletes de dibuixos A, B, C, i es va demanar a molts voluntaris que en cada cas contestessin si A era més semblant a B que no pas a C o si pel contrari, A era més semblant a C que no pas a B. Cada tripleta de dibuixos A, B, C va ser analitzada per 10 voluntaris diferents, per tal d’evitar opinions extremes. L’algorisme d’aprenentatge automàtic supervisat va calcular el conjunt de pesos de manera que el resultat fos concordant amb el que havien dit els voluntaris: si aquests havien vist, per exemple, que A era més semblant a B que no pas a C, els pesos havien de ser tals que la distància entre A i B fos més petita que la distància entre A i C, i així en tots els casos. L’interessant de tot plegat és que es va veure que 91 dels 169 descriptors acabaven tenint un pes nul. En els dibuixos, només 78 descriptors són rellevants. Els altres 91 no són informatius.

En resum: si volem que el nostre ordinador pugui calcular la semblança entre dibuixos per així poder generar noves composicions gràfiques, hem de definir un nombre (elevat) de descriptors que caracteritzin cada dibuix i hem de calcular els paràmetres (els pesos, en el nostre cas) que finalment ens permetran calcular distàncies (semblances) entre dos dibuixos qualsevol. L’aprenentatge automàtic és el procés que calcula el conjunt de paràmetres que conformaran el model de l’espai dels dibuixos i que permetran el càlcul correcte de distàncies entre els mateixos.

Doncs bé, si volem identificar músiques, el que ens cal és tenir una biblioteca de músiques ja identificades i trobar la més semblant a la que estem escoltant. Per a fer-ho, hem de definir un nombre (elevat) de descriptors que caracteritzin cada música i hem de calcular els paràmetres (els pesos, en el nostre cas) que finalment ens permetran calcular distàncies (semblances) entre qualsevulla dues melodies. L’aprenentatge automàtic és el procés que calcula el conjunt de paràmetres que conformaran el model de l’espai de les músiques i que permetran el càlcul correcte de distàncies entre aquestes.

Aprendre a mesurar semblances entre dibuixos és molt semblant a aprendre a calcular similituds entre músiques. Tot passa per tenir un bon conjunt de descriptors. En el cas de la música, el que és bastant habitual és calcular la transformada de Fourier de petits fragments solapats (d’uns 25 mil·lisegons cada un), convertir les freqüències en unitats adaptades al nostre sistema psicoacústic (les anomenades unitats mel, MFCC) i considerar com a descriptors els pics de freqüència més grans que un cert valor. Els descriptors són els ingredients de l’aprenentatge automàtic, un camp que és molt més ampli que el que he explicat, que inclou tècniques com les anomenades xarxes neuronals i que, en poques paraules, vol aconseguir algorismes que sàpiguen generalitzar a partir de la seva experiència.

Les tècniques d’intel·ligència artificial són en el centre d’un debat ètic. Poden servir per identificar músiques i compondre dibuixos, però també per rastrejar grans quantitats d’informació (el “big data”) i acabar sabent més sobre nosaltres del que podem imaginar. Són eines de doble tall. De totes maneres, Neil Lawrence diu, crec que amb molt encert, que a ell no li preocupen les màquines sinó les persones. L’aprenentatge automàtic i la intel·ligència artificial poden ser un perill, però no pas per les raons que molts pensen. El problema no són els ordinadors ni els algorismes, sinó els humans. El perill és que hi haurà qui les voldrà utilitzar com armes per a enfonsar i destruir els demés mentre incrementa el seu poder.

Per cert, en Xavier Roig diu que per tal de controlar les fronteres exteriors d’una manera efectiva caldria implantar una autoritat única per a tot Europa, perquè el tractat de Schengen de lliure circulació de persones és una bona idea mal implantada.

—–

NOTA (quasi idèntica a la d’aquest article): El teorema de Pitàgores diu, com sabem, que el quadrat de la hipotenusa d’un triangle rectangle és igual a la suma de quadrats dels catets. Això, clar, és en el pla, en dues dimensions. Però una de les coses interessants d’aquest teorema és que serveix per a qualsevol dimensió. Si tenim dos punts P i Q en un mapa i volem calcular la distància que els separa per saber si són propers o llunyans, podem pintar un triangle rectangle i començar calculant la diferència b entre les seves latituds (que correspon a la longitud del catet nord-sud) i la separació c entre les seves longituds (que correspon a la longitud del catet est-oest). Si b i c els expressem en quilòmetres i si no són massa grans, podrem menysprear la curvatura de la Terra, suposar que el triangle és pla, i calcular el quadrat de la distància entre P i Q amb el teorema de Pitàgores, fent b*b+c*c. Ara bé, aquest càlcul només serà cert si som en una comarca plana. Si P és a la vora del mar i Q és dalt d’una muntanya a 1000 metres, el teorema de Pitàgores en tres dimensions ens diu que el quadrat de la distància entre P i Q és b*b+c*c+h*h, on h és la diferència d’alçades entre els dos punts. En tres dimensions, el teorema de Pitàgores té tres termes. I no és difícil veure que això es compleix en qualsevol dimensió. El quadrat de la distància (anomenada Euclidiana) entre els punts que representen dues melodies en l’espai de les músiques (espai que podem suposar, per exemple, de dimensió 450) és el resultat de restar els valors de cada una de les parelles homòlogues de gens a una i altra melodia, elevar totes aquestes diferències al quadrat, i sumar-les. i el quadrat de la distància (anomenada Euclidiana) entre els punts que representen dos dibuixos en l’espai dels dibuixos individuals (espai que podem suposar, en aquest cas, de dimensió 169) és el resultat de restar els valors de cada una de les parelles homòlogues de descriptors a un i altre dibuix, elevar totes aquestes diferències al quadrat, i sumar-les. Només amb un petit detall: no totes les diferències “valen igual”, hem de donar més importància a unes que a les altres. És el mateix que passa amb els punts dels mapes. Si veiem que la distància en horitzontal (arrel quadrada de b*b+c*c) entre els nostres punts P i Q és de 10 quilòmetres, és fàcil veure que amb una diferència d’alçades de 1000 metres, la nova distància Euclidiana, arrel de b*b+c*c+h*h és de 10 quilòmetres i 50 metres. La línia recta entre P i Q només s’allarga 50 metres quan el punt Q puja 1000 metres. És el que ens diu la geometria, que no coincideix pas amb el que ens diu el nostre cos perquè la nostra percepció subjectiva de distància és bastant més petita quan P i Q són a una mateixa plana que quan Q és dalt d’una muntanya. Com podem calcular aquestes distàncies subjectives? És fàcil, només cal donar més importància a les alçades. És el que en geometria es diu “canviar la mètrica”. És com si canviéssim l’escala vertical. Podem calcular distàncies subjectives en els mapes si canviem una mica la formula i escrivim b*b+c*c+w*h*h, on w és el pes o importància que volem donar a les alçades. Quan fem el càlcul amb w=1 obtenim la distància Euclidiana mentre que si el fem, per exemple, amb w=100, obtenim un valor molt més proper a la nostra percepció subjectiva. I ara, tornant al cas de les distàncies entre melodies o dibuixos, el que fan els programes de reconeixement va en aquesta línia de donar pesos diferents als diferents descriptors i treballar amb una mètrica no Euclidiana: cal restar els valors de cada una de les parelles homòlogues de gens a una i altra melodia o dibuix, elevar totes aquestes diferències al quadrat, multiplicar cada un d’aquests quadrats pel seu pes, i sumar-los. Els pesos es calculen habitualment amb algorismes d’aprenentatge automàtic.

L’oligarquia de les dades

dimecres, 1/04/2015

Les dades són la nova eina de poder. Ho explica molt bé en Neil Lawrence, professor d’intel·ligència artificial a la Universitat de Sheffield, en un article que publicava fa poc el diari The Guardian.

En Neil Lawrence parla del poder dels bancs i del poder de les dades. El poder dels bancs es basa en el capital que acumulen. Però el més modern, ara mateix, és aconseguir poder tot acumulant dades. Les dades són els diners del futur. A internet hi ha moltíssimes dades de tots nosaltres, més de les que imaginem. Analitzant-les, contrastant-les i relacionant-les és possible entendre cada cop millor la gent, els grups i fins i tot les persones. Són tècniques de doble fil, com moltes d’altres. És ben segur que ens serviran per a dissenyar noves eines de diagnosi i tractament mèdic i nous recursos per a les persones grans que viuen soles. Però també s’estan utilitzant com a eines de control, de publicitat invasiva i fins i tot d’atac. Amb una gran diferència: tothom sap que els bancs són dipositaris dels nostres diners, i que els podem anar a buscar sempre que vulguem. En canvi, no tenim cap control sobre les nostres dades i no les podem recuperar ni esborrar. S’han quedat al “núvol” d’internet, se les han quedat.

Fa molts anys que es parla d’intel·ligència artificial. Fa cinquanta anys, quan tot just es començava a parlar dels ordinadors, ja hi havia qui els anomenava cervells electrònics. És una disciplina que ha estat molt temps en hibernació: fins fa poc se’n parlava més en escrits de ciència ficció que en texts científics. Però els nous algorismes d’aprenentatge automàtic, l’anomenat machine learning, ho estan estan començant a canviar tot. Les dades de les xarxes socials, del que graven les càmeres de vigilància, del que ens interessa quan cerquem informació a internet, de les nostres transaccions amb targetes de crèdit i de molt del que fem cada dia es guarden “al núvol” d’internet i serveixen per a que les màquines, els ordinadors, vagin aprenent. El volum de dades és ingent (per això es parla de big data), però els humans hem sabut dissenyar bons algorismes d’aprenentatge just en el moment en el que els ordinadors han assolit la mida crítica necessària. Hem aconseguit que els ordinadors sàpiguen analitzar, filtrar i utilitzar les dades disponibles. Ha estat un canvi radical. Fa deu anys, havíem de programar els ordinadors per a que fessin les tasques que desitjàvem. Ara, en canvi, els programem per a que interpretin informació i es vagin auto-programant en funció d’aquestes dades que van trobant a internet. Aquest aprenentatge automàtic en base a la informació és dinàmic i adaptatiu, perquè l’auto-programació es va perfeccionant constantment: els actuals ordinadors analitzen les dades mentre aprenen de la seva experiència, si em permeteu el símil en termes humans. Tenim un bon exemple en el sistema traductor de Google, en el que les traduccions no es basen en regles sintàctiques prefixades, sinó en l’anàlisi dels texts ja traduïts que trobem a internet.

En Neil Lawrence parla d’un bon nombre de científics, entre ells l’Stephen Hawking, que demanen que es reguli la recerca en intel·ligència artificial. Però diu, amb molt encert, que a ell no li preocupen les màquines sinó les persones. La intel·ligència artificial pot ser un perill, però no pas per les raons que molts pensen. No ho serà pel que pot significar el fet de tenir màquines intel·ligents, sinó perquè hi haurà qui les voldrà utilitzar com armes per a enfonsar i destruir els demés mentre augmenta el seu poder.

El problema no són les dades ni els ordinadors. El problema és la concentració de poder, d’un poder immens, en mans de molts pocs. El que ens ha de preocupar, diu en Neil Lawrence, són els nous oligarques de les dades, siguin individus, governs o empreses, que han vist l’oportunitat de fer-se rics i augmentar el seu poder amb dades que no els pertanyen. En Neil Lawrence demana una democràcia de les dades, una democràcia on l’objectiu siguin les persones i on només es pugui actuar amb consentiment d’aquestes persones. Cal una regulació relativa a la propietat de les dades, per a que quan som observats, quan cerquem informació a internet o quan deixem dades al “núvol” no haguem de pensar que estem reproduint el pacte de Faust amb el diable. De fet, en aquests moments estem ben desprotegits: ja hem vist que podem anar al banc i demanar els nostres diners, però no podem fer que esborrin les nostres dades del “núvol”. És just que hi hagi una oligarquia que tregui profit de les nostres dades, fins i tot en certs casos en contra nostra?

Per cert, la Margot Wallström, ministra sueca d’afers estrangers, va denunciar el tracte que es dóna a les dones a Arabia Saudí, dient que els seus mètodes són medievals i un atemptat cruel que vol silenciar les formes modernes d’expressió. Sembla que els altres països Europeus no tenen intenció de donar-li suport i que fins i tot té problemes al seu país, per haver gosat dir això.