Susan Etlinger: «El Big Data en mans de Trump és un perill»

És una de les veus més influents en la indústria del Big Data i investiga estratègies per a l’aprofitament de les dades | "La tecnologia pot ser una eina súper potent, però també una increïble arma", assenyala

Susan Etlinger
Susan Etlinger | Adrià Costa
27 de novembre del 2016
Actualitzat el 07 d'abril del 2017 a les 17:25h
Susan Etlinger és una de les veus més influents en la indústria del Big Data. És membre de la junta directiva de la Iniciativa Big Boulder, una organització industrial dedicada a promoure l’ús efectiu i ètic de les dades socials. Com a analista investiga diferents estratègies per a l’aprofitament i emmagatzematge de les dades. 

Etlinger va ser una ponent principal de l’Smart City Expo, que es va celebrar la setmana passada a Barcelona. Amb ella vam parlar de com els algoritmes de Facebook van afavorir a Donald Trump durant la campanya electoral i de la falta de transparència en la gestió de les dades personals a Internet.

- Què podem entendre per Big Data

- Cap a l’any 2001, el grup Gartner -una companyia d’investigació dels Estats Units– va donar una definició bastant clara. Deia que quan parlem de BigData hem de pensar en les tres ves, és a dir, volum, velocitat i varietat. Pensa en patrons meteorològics, en la borsa o en els historials mèdics d’una població. Però també en formats: vídeo, àudio, GIF, realitat augmentada i realitat virtual, fotografies, text, tot tipus de dades en diferents formats.

- Som a l’era de la informació i el BigData ens promet molts avenços. És tot cert?

-
Cada cop que sorgeix una nova capacitat tecnològica, la gent es torna boja pensant que el nou invent curarà el càncer, millorarà el sistema polític, ens mantindrà més sans, etc. I uns anys després tothom es queixa perquè no compleix les expectatives inicials. Això passa perquè sempre sobreestimem el que podrem fer en un període curt de temps i subestimem el que farem a llarg termini. La Internet of things(‘objectes connectats entre si’) o els cotxes automàtics generaran moltes dades. Però aquestes són només una eina. El més important és el que es podrà fer amb aquestes dades.
 

Susan Etlinger. Foto: Adrià Costa
 

- En una TEDConference vostè va dir: «És la primera vegada en la història que podem processar exabytes de dades molt de pressa, i de prendre males decisions molt de pressa». Com ara quines?

-
Les dades són un reflex de la realitat. Amb Google pots trobar les tendències del que busca la gent i com ho fa. Pots veure què interessa a la gent de Hillary Clinton i què de Donald Trump. És un mirall de cada cultura i del que la gent està pensant en cada part del món. Si escrius en anglès unprofessional hair, obtens imatges de dones africanes-americanes amb els cabells naturals. Això va sortir publicat fa mesos.

- Per què passa això?

-
Hi ha un biaix de les cerques, de manera que Google conclou que els cabells de les dones de color no és professional. Òbviament això és ridícul i no és cert. Això és el que en matemàtiques anomenem “el problema de l’ovella negra”.
 
- De «l’ovella negra»?

-
Exacte. El cercador recull els biaixos de cada cultura, maneres de parlar, tot el que cerquem està connectat, encara que això no signifiqui exactament cap a on volem anar. En el cas de unprofessional hair és una desviació terrible de la realitat que Google ens la retorna i ens la posa al davant. Tenim el repte de corregir els nostres sistemes perquè no torni a passar.

"Qualsevol pot tenir més repercussió amb notícies falses que un mitjà de comunicació que vigila pel contingut"
 - Quins altres riscos del BigData s’han detectat?

- La intel·ligència artificial (IA) està construïda a partir de dades massives. Un dels datasets més utilitzats pels enginyers de programari per preparar algoritmes de cerca recull totes les paraules de 300 milions de notícies aparegudes a Google. Un parell d’investigadors de la Universitat de Boston van aplicar matemàtiques molt sofisticades per extreure analogies. I van concloure que el dataset tenia un desviament sexista.
 
- Em pot posar exemples d’aquestes analogies sexistes detectades?

-
Quan mires les dades descobreixes la proximitat de les paraules. Per exemple, «home, programador informàtic», «dona, mestressa de casa», «home, doctor», «dona, infermera». S’estan replicant tots els biaixos en 300 milions de notícies emmagatzemades a Google. Per tant, si entrenes un sistema d’algoritmes a partir d’aquest dataset ho fas amb un biaix sexista i, probablement, també racista o violent. Els investigadors estaven molt sorpresos perquè parlem de periodisme, esperaven que serien més independents, més neutrals.

- És un mirall el que publiquem els mitjans en les entranyes de Google…

-
Exacte. Durant la campanya dels EUA, una de les principals qüestions que s’han tractat han estat els algoritmes de Facebook i com podia afectar el resultat final de les eleccions. I això és perquè aquest algoritme valora molt la connexió, la compartició i el comportament dels usuaris però no en la veracitat de la història. Qualsevol des d’un garatge pot tenir més connexions i repercussió amb frases provocatives i notícies falses que un mitjà de comunicació, que fa contingut de qualitat i que s’ocupa de l’ètica periodística. D’aquesta manera, un grup de teenagers de Macedònia van poder arribar a moltíssima gent a través de Facebook publicant notícies falses que afavorien Trump. I Facebook, que no comprova res, ho va permetre.

- Tan fàcilment es pot trucar la història?

-
Es diu que la història l’escriuen els vencedors. Si pensem en IA, la història serà escrita per les dades. El fet és que els algoritmes que pertanyen a empreses privades com Facebook o Google no són transparents, no podem saber com actuen, ni el perquè una història falsa és més popular que una de verídica. Podem esbrinar-lo. Facebook no farà el seu algoritme transparent perquè té un clar avantatge respecte als seus competidors. Aquesta mena de reptes són els que ens han d’amoïnar com a societat.

- Ara hi ha lleis de transparència que obliguen els governs a obrir les dades públiques. No es podria fer el mateix amb els algoritmes?

 - Hi ha un moviment anomenat "Algorithm Transparency". També hi ha ONG, investigadors i acadèmics treballant per la transparència en aquest sentit. Però hi ha dos sectors de la societat que mai apostarà per la transparència: un, és el món dels negocis, per raons òbvies. I, el segon, són els governs i els militars, també per raons òbvies. No donaràs certa informació estratègica de defensa del país als països enemics.

- I els governs sempre han estat darrere de les revolucions tecnològiques...

- Exacte. Als anys 60, Internet va néixer del departament de Defensa dels EUA. Tradicionalment, els governs són els primers a crear i controlar la innovació que permet accedir a informació reservada. I aquest és un aspecte crucial que hem de començar a pensar. Amb Donald Trump hi haurà terribles conseqüències humanes. I és cert que aquestes passen en molts altres països i durant anys. Però aquesta és la primera vegada que passarà als EE.UU.

"La tecnologia pot ser una eina súper potent, però també una increïble arma."
 - Vostè és nord-americana. Com va viure la victòria de Trump?

- El resultat de les eleccions va ser un gran xoc. És clar que a partir d’ara algunes poblacions patiran constants registres o viuran menys tranquil·les, com ara els musulmans. És un moment molt vergonyós per a la nostra història. La tecnologia pot ser una eina súper potent, però també una increïble arma. Si tornem als anys 50, quan John McCarthy va crear una comissió responsable de llistar “suposats” comunistes als EUA, la qual cosa va arruïnar la vida de milers de persones. Donald Trump no necessita reclutar gent per a una comissió que interrogui sospitosos. Perquè totes les dades les té a la seva disposició. La capacitat de les dades per relacionar les connexions entre les persones, què publiquen, a on són, què han fet i què estan fent en temps real, qui és la seva família i els seus amics, què compren, quants diners gasten al mes, etc. Tota aquesta informació està en mans dels governs, tal com Edward Snowden va revelar. Per certes comunitats, aquest pot ser un període terrible. I amb la tecnologia actual es poden crear models predictius per determinar qui és un terrorista o qui és sospitós d’haver comès crims. - Ja s'ha experimentat amb aquestes tècniques, oi?

- És molt fàcil. Als EUA alguns departaments de policia ja han fet proves. Ja et pots imaginar que per construir els algoritmes que els permetin detectar certs perfils, han d'incloure molts biaixos. La policia ja fa servir fotografies de manifestacions per localitzar els activistes. American Civil Liberties Union (ACLU) va descobrir que Facebook, Twitter i Instagram permetia que l'empresa de social mediaGeofeedia rastregés imatges de manifestants que després passava a la policia.

- Fa por…

- No vull ser negativa, però precisament explicar què està passant és una oportunitat per entendre, per crear estàndards ètics, per protegir-nos. Quan veiem fins a quin punt ens ajuda la tecnologia (a endreçar la informació, a comunicar-nos, etc.), hem de ser molt optimistes, és la nostra responsabilitat perquè encara podem fer molt el bé.
 
- Estaria més tranquil·la respecte a l’ús de la tecnologia si avui la presidenta fos Hillary Clinton?


- Tots els governs dels EUA han recol·lectat dades dels ciutadans. Inclús Obama. Vaig votar-lo, i també vaig votar Hillary. I no sabrem què passarà amb Trump però quan ja s’ha anunciat que s’obriran registres a comunitats basats en la seva religió, crec que hem de ser molt curosos amb el potencial de la tecnologia.
 

 

Susan Etlinger, entrevistada per Karma Peiró. Foto: Adrià Costa

Ètica en les dades
 

- Tenim filtracions, vigilància de governs, furoners, gent que amenaça de mort a través de les xarxes, molts d’altres que no tenen privacitat ni els importa, etc. Vostè parla d’ètica, però realment es pot avançar en aquest terreny?

- A la UE les normes de protecció són molt més fortes que als EUA. I això és així, perquè després de la Segona Guerra Mundial molts països es van ajuntar per la Declaració Universal dels Drets Humans i la privacitat va ser un dels temes protegits. No tenim aquesta menció explícita als EUA. Tenim protecció Personal Identifiable Information com el número de la seguretat social i similars.
 
- N’hi ha prou?

- No, respecte a la privacitat tenim una zona grisa. Un dels temes que més preocupa aquests dies als executius de grans empreses és mantenir la confiança. I té lògica. En societats molt competitives, quan és molt complicat distingir entre productes i serveis, quan bona part dels guanys depenen dels marges comercials, no et pots permetre perdre clients i ciutadans. Els leaders estan molt amoïnats amb el tema de la confiança que ara està en uns nivells molt baixos.
 
- La confiança serà el model de negoci del futur?

- Quan es parla d’ètica sovint no s’acaba de concretar perquè es veu com un concepte abstracte i la gent pensa que no afecta. Però quan es parla en termes més tangibles com els impostos per a les empreses, comencen a posar-hi interès. Malauradament, als EUA hem vist escàndols relacionats amb les finances globals, la crisi econòmica. Espero que en el futur, inspirats pel valor de la confiança, la gent pugui controlar més les seves dades. I aquest és un model de negoci que estan avaluant ara petites empreses.

 

Susan Etlinger Foto: Adrià Costa


"No ens estem preparant per afrontar els riscos de les dades massives."
 - Quan vostè parla de valors ètics, a què es refereix?

- Penso en la privacitat, benefici, respecte, justícia, etc. Són valors que promou la Information Accountability Foundation (AIF) amb el seu treball. Quan acumules dades de persones, ho sabran ells? Se'n beneficien o ho fas per fer-los mal? Un exemple seria el que li va passar a la model Kim Kardashian, que va tenir una experiència terrible a Paris, quan va ser segrestada i robada. Va ser localitzada a través del rastre que va deixar el seu Snapchat. Qualsevol persona hauria de saber que aquesta aplicació de xat permet localitzar-ne l'usuari. Però tots tenim moltes coses al cap i molt pocs llegim les condicions d'ús. S'ha calculat que si invertíssim, cada dia, 45 minuts a llegir aquests documents podríem estalviar-nos molts problemes.

- I si posen les condicions d'ús més entenedores?

- Tens raó. Ja hi ha un moviment que es dedica a això. Pinterest, per exemple, és una de les xarxes amb unes normes d'ús més comprensibles. Però el tema de les condicions d'ús és d'una gran complexitat. Només amb el mòbil, pensa en totes les aplicacions que fas servir. I cadascuna té les seves condicions.

- Fa dues dècades, ningú feia cas del reciclatge i avui és una pràctica normal. Quant de temps creu que trigarem a valorar l’ètica en el tractament de les dades?

- Amb les tecnologies sempre passa el mateix. Passen deu anys des del moment que comencen a comercialitzar-se. Pensa en Internet, en les xarxes socials, etc. Amb l’ètica, la bona notícia és que –en part a causa dels mitjans– el debat serà cada cop més popular i transparent. La mala notícia és que la gent mai pensa que li passarà res dolent. Avui no ens estem preparant per afrontar els riscos de tot el que ens poden portar les dades massives.
 
- En una de les obres de l'escriptor Neil Postman es compara el món súper controlat de George Orwell amb el feliç d'Adolf Huxley. De quin tipus de societat estem més a prop?

- Crec que hi haurà societats, cultures i països més totalitaris i d’altres amb més llibertat. Però hauríem de progressar. No m’agradaria dir d’aquí a deu anys «Ah! no sabia que això estava passant». Sóc optimista però també realista. Tinc esperança i confio que aconseguirem una societat tecnològica «saludable». Hi ha gent molt brillant que està invertint la seva vida a posar llum, a fer les coses ben fetes en el sentit de respectar els altres.

Susan Etlinger Foto: Adrià Costa