Primeres sortides d’STI

 

El dimecres 30 d’octubre vam fer el taller “Matemàtiques als telèfons mòbils” al campus Nord de la UPC. Una visió diferent a la que estem acostumats a la telefonia on comprovem que les matemàtiques també són la base de la telefonia mòbil.

Rotary UPC

El dia 31 d’octubre de 2013 vam fer una sortida a La Salle Campus Barcelona – Universitat Ramon Llull, per tal d’assistir a dos grups de treball dins del marc ESCOLAB-2014:

Laboratori 1: “Posa’t en la ment d’un autèntic Hacker per poder fer front a la pirateria”, amb el professor José Mª Bea i els alumnes de 2n CFGS STI (i també alguns de 1r)

Un taller molt ben organitzat, super-pràctic i que ens va deixar bocabadats. Vam conèixer més sobre una utilitat tan simple com el ping i el tracert. Vam fer l’atac smurf i ens vam infiltrar a un Windows 2000 server amb IIS 5, amb la utilitat netcat vam aconseguir una consola.

 Taller Hack La Salle

Laboratori 2: “Vex Robotics”, amb el professor Jesús Alcaraz i els alumnes de 1r CFGS STI.

En aquest laboratori vam poder gaudir de les explicacions, comentaris, indicacions pràctiques i molt bon saber fer de l’Enginyer Francesc Constans, al que li agraïm des d’aquí la seva atenció i dedicació.

El Francesc ens va fer una introducció a la robòtica, ens va explicar, entre d’altres coses, l’origen del robot ROOMBA i la plataforma de competició escolar internacional VEX ROBOTICS, la qual fomenta no només l’assoliment de conceptes físics, mecànics, electrònics i de telecomunicacions mitjançant la resolució de reptes i la competició, sinó que també permet fer créixer en l’alumnat els valors del treball en equip, el debat, el lideratge, la comunicació i la interrelació amb altres grups de treball.

Més concretament, vam poder muntar l’escenari de la competició i viure les dificultats tècniques que suposa el repte conduint un dels robots. També vam poder gaudir de l’experiència de dos robots-prototipus més fabricats a l’escola d’Enginyeria de La Salle.

Aquí podeu veure algunes de les imatges de la visita:

IMG-20131031-WA0007

 

IMG-20131031-WA0008

 

IMG-20131031-WA0009

 

IMG-20131031-WA0010d

 

I un vídeo:

Per tant, comencem el curs de forma divertida amb utilitats pràctiques del que anem aprenent a classe.

Bit electrònic versus bit d’informació: Introducció a la Teoria de la Informació

És de tots conegut que la tecnologia electrònica es fonamenta en la facilitat per processar senyals digitals, aquells que poden presentar de manera excloent dos estats possibles (5Volt / 0 Volt , SÍ/NO, TRUE/FALSE o 1/0 segons com decidim representar-los) i que admeten el model de circuit més senzill possible per connectar un emissor amb un receptor:

circuit
Iŀlustració 1: Mayra (2n CFGS STI) assenyalant el Model bàsic d’un circuit de comunicacions

Si l’interruptor es tanca, circula un corrent elèctric pel circuit i mesurem un valor de tensió en el receptor (això equivaldria al nostre estat “1” si fem servir lògica positiva), mentre que si l’interruptor roman obert, no circula corrent i el valor de tensió elèctrica mesurat en el receptor és de 0 Volt (l’estat “0”). El sistema binari de numeració ens va molt bé per representar de manera resumida amb una sola variable que anomenarem BIT (terme introduït per J. W. Tukey en contraure els termes BInary Digit) aquests 2 possibles estats. I ens permetrem la llicència en aquest article d’anomenar-lo “bit electrònic” per tal de distingir-lo del “bit d’informació” que presentarem més endavant, tot i que a la pràctica només parlem de “bit” sense matisos.

Si, a més, aquest fet l’observem durant un temps, l’aspecte que podríem comprovar en una línia digital de comunicacions seria del tipus:

grafic
Iŀlustració 2: Aatif (1r CFGS STI) dibuixant l’evolució temporal d’un senyal digital

Ara bé, ens hem parat a pensar alguna vegada quànta informació circula per aquest circuit? Si enviem la seqüència 11011001, per exemple, estarem enviant lògicament 8 bits per la línia o canal de comunicacions, però això serà molta o poca informació? Com es mesurarà?

Claude Shannon s’ho va plantejar l’any 1948, arrel d’estudis previs de Nyquist i Hartley i va elaborar un article que es coneix com el pare de la Teoria de la Informació: “A Mathematical Theory of Communication”.

claude_shannon61

Iŀlustració 3: Claude Shannon (http://viguerasbecerracs.files.wordpress.com/2012/06/claude_shannon61.jpg)

En aquesta intervenció del blog de telecos de l’Institut Anna Gironella de Mundet presentarem una molt breu introducció a alguns aspectes d’aquesta teoria que ens faran pensar una mica en la natura de la informació i en com la podem mesurar.

Quines penseu que podríen ser les característiques que un senyal (magnitud física que transporta informació) digital hauria de tenir per poder pensar que transporta “molta quantitat d’informació” (expressió col·loquial encara poc tècnica) ? La primera resposta que vaig rebre quan la vam formular a classe va ser:

Cal una variació temporal del senyal. És a dir, que es produeixi un gràfic similar al que hem dibuixat més amunt en la il·lustració 2, on anem passant de 0 a 5 Volt, ja que mantenir sempre l’interruptor obert o l’interruptor tancat, sense un canvi d’estat, fa que el receptor vagi perdent l’interès per saber quin és l’estat de l’interruptor, perquè ja se’l sap i no li cal que li comuniquin.

Però llavors podríem pensar en un senyal que variés molt, sempre, com ara l’interruptor que cada hora es tanca per tal que soni el timbre de canvi de classe. De manera periòdica, aquest sona uns pocs segons cada 60 minuts, o bé segueix una pauta horària que permet distingir també els descansos o aquelles sessions que durin 55 minuts en comptes de 60.

Tots convindrem en el fet que, malgrat variar força aquest senyal, si l’observem durant un dia, poca informació ens aporta… si la comparem amb la situació en què en un moment esperat no soni, o no pari de sonar (diríem potser que s’ha avariat) o que soni amb una cadència diferent i en un moment no esperat (podríem pensar que s’ha produït una situació d’alarma). Si poguéssim d’alguna manera quantificar ambdós casos, en un diríem que la informació aportada és ben poca mentre que en l’altre seria molt més gran (ens adreçaríem a consergeria a veure si podem obtenir-ne més).

En resum: cal efectivament una variació del senyal, però de manera impredictible, aleatòria, no esperada per tal que aquest senyal digital pugui ser qualificat també com a senyal d’informació, atès que ens n’aporta molta, d’informació. I parlar de fets aleatoris ens porta a fer ús de la probabilitat i les seves lleis per tal de descriure-ho.

I com va proposar Shannon que la mesuréssim? (aquí vénen les matemàtiques)

Si tenim un esdeveniment A que pot succeir amb una probabilitat que anomenarem PA, podem definir la Informació associada a aquest esdeveniment A com a:

I_A = log_2(\frac{1}{P_A})

Fixeu-vos en alguns aspectes que es compliran amb aquesta definició i que seran molt coherents amb la nostra percepció de quantitat d’informació:

  • Quan un esdeveniment és cert (segur que succeeix), per exemple, hem comprat tots els números d’una rifa, segur que ens toca, la Probabilitat que ens toqui és màxima (en matemàtiques la probabilitat està compresa entre els números 0 i 1), i podem dir que P =1. Però com que ja sé que ens tocarà, la informació associada serà de I = 0

  • Quan un fet és de totes totes improbable, inesperat, perquè ni pensem que pugui succeir, la seva Probabilitat és 0 o gairebé 0, si es produeix ens aporta una informació desmesurada, diríem que infinita (penseu per exemple en la informació associada a un accident catastròfic, o l’erupció d’un volcà o un terratrèmol, totes les xarxes de comunicacions gairebé es col·lapsen per tal de comuncar el fet i tots els seus detalls)

  • Si els fets que es poden produir són estadísticament independents, és a dir, que el fet que un esdeveniment succeeixi no depèn que succeeixin els altres (per exemple, ens comprem un cotxe, fa sol i hem menjat llenties); la informació del conjunt es pot obtenir com la suma d’informacions de cada un dels esdeveniments (i aquí hauríem de recordar que la probabilitat que succeeixi tot és el producte de probabilitats, i que el logaritme d’un producte és una suma de logaritmes)

  • El sistema és digital, de manera que la base que s’utilitza en el logaritme és 2. Si ho pensem a la inversa per veure la seva utilitat, a títol d’exemple podem fixar-nos en un alfabet de símbols com el codi ASCII (American Standard for Communication Interchange): hi ha M = 256 símbols (totes les lletres majúscules, minúscules, dígits numèrics, parèntesis, caràcters matemàtics, lletres específiques d’alguns idiomes, accents…) que ens permeten expressar-nos de manera estàndar i bàsica en la majoria dels llenguatges. La pregunta seria, quants dígits binaris ens farien falta per representar qualsevol de les 256 combinacions possibles? Caldria resoldre l’equació M = 2n . La solució és n = 8, i aquí veuríem la necessitat que la base dels logaritmes fos 2 i no 10.

Per acabar, un exemple de càlcul senzill que reuneixi tots els aspectes vistos:

Suposeu que tenim un alfabet de només quatre símbols possibles i estadísticament independents, format per les lletres A, B, C i D. Formar paraules intel·ligibles i pronunciables seria ben difícil per als humans, ja que els missatges serien de la forma ABCCCA, DAADDBC…

Si, a més a més, no emetem els símbols amb la mateixa probabilitat, sinó que seguim la taula següent:

símbol

probabilitat P

codificació en bits

A

1/2

(50%)

00

B

1/4

(25%)

01

C

1/8

(12.5%)

10

D

1/8

(12.5%)

11

Quànta informació transportaria el missatge “BDA”?

I_{BDA} = I_B + I_C + I_D = log_2(1/4) + log_2(1/8) + log_2(1/2)=

log_2(4)+ log_2(8) + log_2(1) = 2 +3 + 1 = 6 bits

I el missatge “AAB”?

I_{AAB} = I_A+ I_A+ I_B = log_2(1/2)+ log_2(1/2)+ log_2(1/4) =

log_2(2) + log_2(2) + log_2(4) =1 + 1 + 2 = 4 bits

Quants “bits electrònics” enviaríem pel circuit de comunicacions?

3 símbols x 2 bit/símbol = 6 bits en els dos casos (BDA i AAB)

Fixeu-vos que no sempre coincideix el bit electrònic o físic que viatja per un circuit digital amb la quantitat de bits d’informació que transporta i que són rellevants pel receptor.

Si pensem en el nostre alfabet humà i en el seu diccionari, les vocals tenen una alta probabilitat d’aparèixer en una paraula, mentre que les consonats no tanta i segons de quina es tracti, menys (penseu en quàntes paraules porten una “m” i en quàntes una “z”). Com tampoc es compleix la llei de símbols estadísticament independents de manera estricta, ja que hi ha combinacions que sí que es donen, com ara “mp”, “nt”, però d’altres mai o només excepcionalment, com “vh”.

La teoria del llenguatge ja intuïm que es vincula aquí amb la teoria de la informació, però el problema és prou complex com per deixar-ho per un altre article.