Entrades amb l'etiqueta ‘Claude Shannon’

La paradoxa de la informació

divendres, 8/09/2017

La informació no té una definició única. La gran enciclopèdia catalana diu que informació és una “notícia o notícies que hom tracta de saber, que hom rep”, però que també és el “contingut d’una o més dades, tot fent abstracció de la representació concreta que adopta”. Coses que volem saber o que acabem sabent, i que podem extreure de les dades que rebem. La Wikipèdia, d’altra banda, la defineix com “tot allò que un ser humà és capaç de percebre, incloent-hi les comunicacions escrites i orals, les imatges, l’art o la música”, i com “el fet de processar, manipular i organitzar dades d’una forma que produeixin coneixement i esvaeixin el desordre”.

La informació és multifacètica. És el que percebem, el que incrementa el nostre coneixement. També, en paraules de Claude Shannon, informació és allò que redueix la incertesa. La frase “avui a la nit serà fosc” no és informativa perquè és quelcom que tots sabem. Però si dic “aquesta nit no vindré a sopar” estic concretant, disminueixo la incertesa, i per tant informo (vegeu la nota al final). Ara bé, a més d’aquest aspecte cultural i comunicatiu, la informació s’ha de transmetre, i aquí és on apareixen les dades, l’ordre i el substrat que la suporta. Les plantes informen amb les seves olors, les formigues amb els rastres i els ocells amb els seus cants. Els sons dels dofins o dels rossinyols, perfectament codificats, ordenats i seqüenciats, són útils als seus companys encara que nosaltres no els entenguem. Per això, podem dir que la informació requereix un determinat ordre en un cert substrat, a més d’un codi que li doni sentit i ens permeti llegir-ne el significat. Podem llegir un article a la pantalla de l’ordinador només quan el seu conjunt de més d’un milió de píxels s’ordena i ens mostra les lletres del text en negre sobre blanc, i tot seguit el podem recordar gràcies a l’ordre químic de les neurones del nostre cervell. Quan una persona parla en una llengua que desconeixem o escriu signes que no entenem, observem l’ordre sonor o gràfic del que fa, però no podem captar la semàntica dels seus missatges.

Què ens diu, la imatge de dalt? A primera vista, són 15 ametlles disposades en un ordre estrany damunt una pedra, formant set columnes amb 4, 3, 2, 1, 1, 2 i 2 fruits secs. Imagineu ara que tenim una quadrícula imaginària amb 4 files i 8 columnes, de manera que la primera columna és a l’esquerra i no té cap ametlla. L’ordre es fa més explícit, i ens presenta quatre files de 8 caselles, algunes plenes i altres buides. Ara ja veiem, en aquest substrat d’ametlles, una taula ordenada; però encara ens falta el descodificador. Però només cal que ens diguin que les hem disposat en files seguint el codi ASCII dels ordinadors, i ja podrem llegir el missatge: les quatre files codifiquen les quatre lletres de la paraula “Bits”.

En informàtica, tota la informació es codifica i representa amb seqüències de bits. Cada lletra dels texts que escrivim als missatges i correus electrònics i cada lletra dels articles i llibres que llegim i que trobem a la web, es guarda en un “byte“, que són 8 bits. Els sons, els missatges de veu, les fotos, la nostra agenda, els vídeos i tot el que tenim als ordinadors tenen el mateix aspecte: una llarga tirallonga de bits “1” i “0”. Els ordinadors funcionen gràcies a que apliquen el descodificador adequat a cada tipus d’informació, perquè si per exemple utilitzessin el codi ASCII per interpretar vídeos, no veuríem res. D’altra banda, els bits són també una eina de mesura: si codifiquem la informació de manera òptima i eliminant totes les possibles redundàncies, la quantitat d’informació es pot mesurar pel nombre de bits que ocupa. Però aquesta mesura acaba sent diferent pels humans i pels ordinadors, cosa que té conseqüències pràctiques molt concretes, per exemple quan l’ordinador o el mòbil ens demana que escollim i entrem una nova paraula clau (un nou “password“): tenim una falsa percepció d’allò que és indesxifrable (vegeu un cop més la nota al final).

Per bé o per mal, som al segle de la informació. En Gérard Berry comenta que el segle XIX va ser el segle de la matèria, de la química i de la síntesi dels metalls i altres elements. El segle XX, en canvi, va ser el segle de l’energia, a més de la matèria: l’electricitat, el petroli, l’energia nuclear i fins i tot l’inici de les renovables. El segle passat va veure el naixement de la informàtica, però no ha estat fins el segle XXI que hem vist un creixement quasi explosiu de la quantitat informació que corre pel món. Recordo que, l’any 1992, el disc dur del meu ordinador era de 20 MB (un “MegaByte” és un milió de bytes, equivalent a 8 milions de bits). Ara, qualsevol targeta “MicroSD” de mòbil té 16 o 32 GB, més de mil vegades més que el que jo podia guardar fa tan sols 25 anys. No parem de generar, guardar i “compartir” informació.

La paradoxa del moment actual, però, ens l’explica molt bé en Renee Morad. Internet fa que la informació sigui més accessible que mai. Però molts dubten (dubtem) de la veracitat del que hi troben. Aquesta desconfiança (sobretot en fonts “llunyanes”, tal vegada esbiaixades i poc contrastades) alimenta una demanda de nova informació que és cada vegada més gran. En altres paraules: hi ha massa informació; però, en no saber quina és certa i quina és falsa i del tot il·lusòria, nosaltres en generem més. Com que moltes persones fan el mateix, es manté el creixement continu de la quantitat d’informació. Cada cop hi ha més informació que és menys fiable en mitjana i cada cop es farà més difícil filtrar-la. Incrementem la quantitat mentre reduïm la qualitat. Llegir és fàcil, entendre i comprendre serà cada vegada més difícil.

Per cert, en David Foster Wallace deia que ensenyar a pensar és ensenyar a ser una mica menys arrogant i a contemplar-nos nosaltres mateixos i les nostres certeses amb consciència crítica, perquè un gran percentatge del que tendim a donar per segur s’acaba demostrant que és fals i del tot il·lusòri.

———

NOTA: L’entropia de Shannon és una mesura del desordre que conté un missatge. És clau per a quantificar la informació que conté. En concret, la informació que conté un missatge es pot mesurar com la inversa de seva probabilitat (aquí, per exemple, en podeu veure una explicació senzilla i basada en exemples de predicció meteorològica). Quan ens parlen d’un fenomen rar, la seva probabilitat és baixa i per tant, la mesura de la informació que aporta és alta. En canvi, quan ens diuen una obvietat d’absoluta certesa (com que “la sang és vermella”), la probabilitat és màxima i la informació, nul·la. En tot cas, la novetat d’una certa informació depèn del receptor: la frase “la capital de Finlàndia és Hèlsinki” segurament no aporta cap nova informació a moltes persones mentre que, per algunes altres, pot ser quelcom nou i informatiu.

Com podeu veure en aquesta auca, la dificultat de les paraules clau que utilitzem (i la informació que contenen) és molt diferent pels humans i per les màquines. L’auca compara les paraules clau “Tr0ub4dor&3” i “correcthorsebatterystaple“. La primera es basa en escollir una paraula poc usada (en aquest cas podria ser “troubador” en anglès), posar o no la primera lletra en majúscules, fer un parell de substitucions, i afegir al final un signe de puntuació (“&” en aquest cas) i un dígit numèric. La segona consisteix simplement en concatenar quatre paraules més o menys corrents, “correct horse battery staple“.

L’entropia de la primera opció és de l’ordre de 28 bits, si pensem que el diccionari de paraules poc usades que utilitzem té unes 65 mil paraules (2 a la 16); la resta de bits són deguts a decisions sobre com hem de modificar aquesta paraula i quins són els darrers dos caràcters de la paraula clau. Una màquina que faci mil tests per segon pot provar totes les possibilitats (2 a la 28) en uns tres dies i per tant acabarà descobrint el nostre password. Però als humans se’ns fa molt difícil recordar la paraula inicial i tots els canvis i substitucions. Segur que al cap d’un temps no recordem el que havíem posat.

En canvi, l’entropia de la segona opció és de l’ordre de 44 bits, si pensem que el diccionari de paraules que utilitzem té dues mil paraules (2 a la 11), perquè 11 per 4 és 44. A raó de 1000 tests per segon, una màquina necessitaria 550 anys per provar totes les possibilitats (2 a la 41 segons). En aquest cas tenim una paraula clau que ens és fàcil de recordar si pensem en alguna regla mnemotècnica o en alguna idea que ho lligui tot, però que en canvi les màquines i sistemes automàtics no la podran desxifrar.

Com diu l’auca, després de vint anys d’esforços, hem après a usar paraules clau que els humans no som capaços de recordar, però que les màquines poden desxifrar fàcilment. Un consell: si volem tenir paraules clau que siguin realment privades, millor que pensem en trucs que siguin complicats per les màquines i sistemes automàtics, encara que a nosaltres ens semblin fàcils…