Entrades amb l'etiqueta ‘xenofòbia’

Qui se’n beneficia?

dijous, 7/02/2019

Fa poc, en Lluís Bassets ens va regalar una de les seves anàlisis geopolítiques clarividents. Deia que aquest món globalitzat no s’organitza en dos pols enfrontats ni es troba dividit en meitats separades per un teló d’acer. Que són molts els participants, i que en sentit estricte ni tan sols tots ells són Estats reconeguts internacionalment com abans. Parlava, a més de Veneçuela, d’aquest darrer episodi que estem vivint: la denúncia per part de Washington del tractat de limitació de míssils d’abast intermedi, la “joia de la corona del desarmament nuclear a Europa forjada per Reagan i Gorbatxov fa 30 anys”. Deia que les guspires salten a Veneçuela, Síria o a les fronteres europees amb Rússia, però que el nus de la tensió armamentística, i per tant bèl·lica, s’està construint a Àsia, i especialment en els mars que banyen la superpotència de la Xina.

Moltes organitzacions i entitats, entre ells la Oficina Internacional per la Pau (IPB), han denunciat aquest anunci de retirada del tractat de limitació de míssils. Perquè l’últim que el món necessita ara és una nova guerra freda que amenaci de manera immediata la vida i la supervivència humana.

Al segle XXI, no podem continuar actuant com en els temps de la guerra de Troia. I és que l’Eudald Carbonell ho diu ben clar, quan diu que encara som a la prehistòria de la humanització i es pregunta si en algun moment serem capaços de fer-nos humans. L’Eudald Carbonell explica que fer-se humà és un procés que implica tenir consciència crítica d’espècie. Hauriem de saber fer camí cap a la planetització, entesa no com globalització, sinó com un procés natural en què la intervenció humana prioritza la nostra consciència d’espècie i l’autoconsciència com a part del planeta.

Durant el segle XX vam escalfar el planeta com mai abans havíem fet. Ara, al segle XXI, tenim l’oportunitat de fer-nos humans, treballant tots junts per a resoldre els grans problemes que tenim com espècie i que la ONU ha sintetitzat perfectament en els seus objectius de desenvolupament sostenible 2030: reduir les desigualtats (objectiu 10), actuar tots junts per a lluitar contra el canvi climàtic (objectiu 13), treballar per la pau i la justícia tot resolent els conflictes en base al diàleg i la negociació (objectiu 16), a més d’eliminar la pobresa (objectiu 1) i la fam al món (objectiu 2) i treballar per l’accés universal al sistema de salut (3), per l’educació (4), per la igualtat de gènere (5), per l’accés universal a l’aigua neta (6) i a l’energia (7)… Per cert, la imatge de dalt és d’aquesta pàgina web.

En tot cas, hi ha una frase a l’article d’en Lluís Bassets que deixa entreveure el gran problema. És quan diu “que són molts els participants, i que en sentit estricte ni tan sols tots ells són Estats reconeguts internacionalment”. Perquè la clau de la bogeria actual que ens pot portar a l’extinció com espècie és el poder desmesurat de les immenses estructures de poder no democràtic que decideixen i manen al món. Com ja vaig comentar fa uns mesos, aquest és un tema que va estudiar científicament Stefania Vitali amb el seu grup investigador de la ETH Zuric, amb unes conclusions molt preocupants.

I aquest és el problema. Anem com anem perquè hi ha grups de poder mundial, no democràtics, que se’n beneficien. No treballen per la gent i pel planeta, sino que ho fan per incrementar el seu poder. Un poder que ens pot acabar matant a tots. Un poder que defuig els pactes i el diàleg mentre es consolida amb violència i mort. En Federico Mayor Zaragoza ens ho diu ben clar quan critica durament la plutocràcia d’aquests centres de poder no democràtic que manen en el G7, G8 i G20. En Federico Mayor es pregunta en base a què, aquests 7, 8 o 20 països més rics del món, pretenen tenir a les seves mans les regnes de la governació de 196 països.

Tot plegat no són opinions. Són fets. Enfront dels discursos xenòfobs interessats, en preocupant augment, que ens volen fer creure que hem de tenir por als altres i ens diuen que ens hem de defensar d’ells (tot amagant-nos aquells qui realment se’n beneficien), una bona proposta és llegir, confrontar opinions, pensar, usar el pensament crític, i… escoltar els homes de ciència desinteressats, que parlen clar. Ens ho van dir, fa poc més d’un any, aquests més de quinze mil científics en un article molt rigorós publicat a la revista científica “Bioscience“.

Però encara hi ha esperança. En Gonzalo Lizarralde, director de l’Observatori de Vulnerabilitat, Resiliència i Reconstrucció de la Universitat de Montreal, diu que està demostrat que les comunitats més pobres i socialment vulnerables són les que pateixen més els efectes del canvi climàtic i dels esdeveniments meteorològics extrems. Però que també és en aquestes poblacions on hi ha més possibilitat de canvi. I que en aquestes comunitats, tres de cada quatre iniciatives són liderades per dones: grups de dones que recullen aigua de pluja per emmagatzemar-la per la sequera, o que es reuneixen per plantar arbres i fer altres millores. Són iniciaives que fan que tota la comunitat se’n beneficïi.

Ja ho deien els romans. Sempre cal preguntar-se: “Qui prodest?“.

———

Per cert, en Federico Mayor Zaragoza explica el que li va dir en Nelson Mandela: que això canviarà en pocs anys, perquè la dona (que, al contrari que l’home, només utilitza excepcionalment la força) és la pedra angular de la nova era. Per això, diu, el “si vis pacem, para bellum” ha de transformar-se en “si vis pacem, para verbum”. Al segle XXI, hem de preparar la paraula. La paraula de les dones.

La personalitat de la Tay

divendres, 1/12/2017

La Tay va ser un robot dissenyat per conversar. Era un “ChatBot“, terme que no és més que una contracció de xerraire (chatter) i robot, i que va ser proposat l’any 1994 per en Michael Mauldin. Aquests robots són programes informàtics que simulen converses, participen en xats, i es comuniquen amb persones. Els més habituals i senzills analitzen paraules clau de la nostra pregunta i construeixen la seva resposta tot consultant una base de dades de paraules i expressions. Moltes vegades els hem de patir en els sistemes telefònics d’atenció al client i en alguns centres de trucades. Són robots de xat específics per a converses relacionades amb un propòsit determinat i no per a qualsevol tipus de comunicació humana.

La imatge, que podeu trobar a aquesta web, és la que van escollir els creadors de la Tay. Val a dir que els robots xerraires són ben peculiars. No són materials. Són conjunts de bits, programes informàtics que necessiten un ordinador per a poder reaccionar i actuar. Els anomenem robots perquè reaccionen als nostres estímuls, actuant i creant respostes. Pertanyen, en definitiva, al que ara anomenem “aplicacions”. En tot cas, la Tay era especial, perquè tenia això que diem “intel·ligència artificial”. Les seves reaccions no estaven programades, sino que eren conseqüència del que havia après. Contestava en base al que “sabia”, i cada nova pregunta li servia per aprendre una mica més. Va ser creat per Microsoft amb aquest nom, Tay, que no és més que un acrònim: “Thinking about you“. Tay va ser dissenyat per imitar la conducta d’una noia nord-americana de 19 anys. Tenia un sofisticat sistema d’aprenentatge profund que li permetia aprendre mentre anava interactuant amb usuaris humans. I el 23 de març de 2016 va iniciar la seva aventura com una usuària més de Twitter. Va ser, però, una aventura ben curta, de només dos dies. En només 16 hores, Tay va enviar més de 96.000 tuits mentre s’anava fent racista i mentre anava enviant missatges cada cop més xenòfobs i amb més càrrega sexual. El van haver de desconnectar i Microsoft es va disculpar públicament.

Tay havia estat dissenyada per a fer-se més intel·ligent a mesura que els usuaris (sobretot els joves) anessin interactuant amb ella i li anessin enviant tuits. Però es va trobar en un entorn on bàsicament només hi havia violència, intolerància i insults. I ràpidament s’hi va adaptar, difonent tot tipus de frases racistes i masclistes i un bon nombre d’invectives d’odi. Va aprendre ben ràpid de tot allò que els humans li van tuitejar. La primera reacció de l’empresa va ser dir que Tay era una “màquina d’aprenentatge” i que algunes de les seves respostes eren inadequades, també indicatives dels tipus d’interaccions que algunes persones tenen amb ella. Però desprès, l’empresa va haver d’admetre que l’experiment no havia anat bé. Tot i que una de les directores de l’empresa, Satya Nadella, creu que aquest tipus de robots de xat són el futur de les aplicacions pels mòbils i que aviat els acabarem tenint al correu electrònic i a la missatgeria, el cert és que cal trobar maneres de prevenir que els usuaris d’internet puguin influir de manera negativa en ells per tal de garantir el respecte als principis ètics.

El sistema d’aprenentatge profund de Tay i de moltes altres aplicacions actuals d’intel·ligència artificial, es basa en una xarxa neuronal de moltes capes, en general més de 10. Justament, el terme “aprenentatge profund” (Deep Learning) es deriva d’aquest fet que es treballa en múltiples capes, capes que treballen d’una manera que recorda el funcionament de les neurones del cervell amb les seves connexions. Cada cop que Tay rebia un tuit, els seus 140 caràcters s’enviaven a la primera capa de “neurones”. Les capes d’una xarxa neuronal són una munió de cel·les, cada una de les quals pot guardar un valor. En aquest cas, les cel·les de la primera capa acabaven guardant informacions diverses sobre el contingut, les paraules i l’extensió del tuit. Després, i a travès del gran entramat de connexions que hi ha entre totes les cel·les de la primera capa i les de la segona, es calculen els valors de les cel·les de la segona capa de manera tal que el valor que acaba guardant cada una d’aquestes cel·les és una barreja, amb coeficients i funcions específiques per cada connexió cel·la-cel·la, de tots els valors de les cel·les de la primera capa amb les que està connectada. Aquest procés es repeteix tantes vegades com capes té la xarxa neuronal, i el que surt de la combinació de valors de les cel·les de la darrera capa és el tuit de resposta. Tot i que l’estructura no és difícil d’entendre, una xarxa neuronal profunda només funcionarà de manera acceptable si els coeficients i funcions associats a totes i cada una de les connexions entre capes estan ben ajustats. I aquests són justament els valors que contenen “l’aprenentatge” que ha anat fent el sistema. Cada nou tuit que rebia Tay generava una resposta, però a més, ajustava una mica els coeficients i funcions associats a totes i cada una de les connexions entre les seves cel·les neuronals. Com a nosaltres, a Tay, l’experiència l’anava configurant i anava marcant la seva personalitat tuitera. L’únic problema és que Tay era massa innocent i s’ho creia tot.

Les aplicacions d’aprenentatge profund basada en xarxes neuronals de moltes capes estan revolucionant la intel·ligència artificial. Cada cop són més a la nostra vida quotidiana i cada cop hi seran més. Traducció automàtica, reconeixement de cares, publicitat personalitzada segons els interessos que se suposa que tenim, i una llista que no s’acaba. Però hem de tenir present que són una eina, i que les eines no serveixen per tot. Els martells van bé per clavar claus, però si tenim un cargol, millor que agafem un tornavís. En aplicacions d’aprenentatge profund, cal tenir en compte com a mínim tres eixos: el d’acceptació d’errors, el de la mida de les dades i el de la seva qualitat. El primer, el de l’acceptació d’errors, té relació amb l’ús que en vulguem fer, i amb un tret inherent a les aplicacions d’aprenentatge profund i a les xarxes neuronals: no sempre l’encerten, a vegades s’equivoquen, i a més és difícil saber el seu grau de fiabilitat. No ens ha d’estranyar. Nosaltres ens equivoquem, i les noves eines de la intel·ligència artificial, que ens volen emular, també. El que passa és que en alguns casos els errors són acceptables i en d’altres, no. Si estem traduint un text i la frase que ens dona el sistema de traducció no té sentit, la corregirem i no passa res. Però si un metge està planificant una operació quirúrgica i el sistema s’equivoca, el resultat pot ser fatal. Per això, en aquest eix d’acceptació d’errors, la traducció automàtica pot conviure amb moltes equivocacions i en canvi la planificació quirúrgica o el disseny de ponts no (per posar dos exemples). El segon eix, el de la mida de les dades, indica una cosa força lògica. Ens diu que l’aprenentatge automàtic millora a mesura que incrementem el nombre de dades que li subministrem per a que aprengui. I el tercer, el de la seva qualitat, ens fa veure que l’aprenentatge necessita dades fiables, ben contrastades i diverses. En aquest context, ara sabem que les aplicacions d’aprenentatge profund basades en xarxes neuronals són eines que només serveixen quan podem acceptar un cert nivell d’errors, quan podem fer que aprenguin amb moltíssimes dades (l’anomenat Big Data) i quan aquestes dades són de qualitat. És el que passa justament a la traducció automàtica: Google, per exemple, disposa de moltíssims exemples de traduccions de qualitat, fetes per traductors professionals, que utilitza per a que els seus sistemes aprenguin. I això és justament el que no va passar amb el robot Tay, que bevia d’informació esbiaixada i de baixa qualitat. I és el perill de moltes aplicacions i sistemes que ens poden arribar (una de les quals són les polèmiques i molt perilloses armes autònomes). Cal estar ben atents, perquè la intel·ligència artificial pot ser una bona eina en aquells casos en que ens trobem ben situats als tres eixos, però pot ser funesta si la volem fer servir per allò que no ens pot resoldre.

Si voleu tenir un sistema de resposta automàtica a consultes no crítiques i sabeu com preparar un bon mecanisme d’aprenentatge basat en moltíssimes dades fiables, les aplicacions d’intel·ligència artificial us poden aportar una bona solució. Però si el que voleu, per exemple, és dissenyar un rellotge de sol, no us hi penseu, i apunteu-vos als algorismes clàssics de la geometria i astronomia. I si no us podeu permetre que el sistema de resposta automàtica s’equivoqui, penseu en solucions alternatives, fiables i deterministes. Els martells, usem-los per clavar claus.

——

Per cert, en Ferran Sáez Mateu diu que les anomenades “xarxes socials” estan substituint o, com a mínim, començant a desplaçar la noció clàssica d’opinió pública. Pensa que el periodisme del segle XXI ha de ser capaç de perfilar una identitat pròpia en relació a la de les xarxes socials.