Com canvia la vida diària de Big Data a Amèrica?

Com canvia la vida diària de Big Data a Amèrica?
Com canvia la vida diària de Big Data a Amèrica?

Vídeo: Videoconferencia: Shaping the City with Data Science 2024, Juliol

Vídeo: Videoconferencia: Shaping the City with Data Science 2024, Juliol
Anonim

La idea de "big data" ha esdevingut omnipresent, b què és i com canvia la manera de viure? Ens vam assabentar amb la científica de dades, la doctora de Harvard i la candidata del Premi Nacional del Llibre, Cathy O'Neil, per conèixer-ho.

CT: Comencem amb els fonaments bàsics: què és exactament la "big data"?

CO: Big data és un nou enfocament per predir les coses. Més concretament, "big data" és l'ús de dades recollides de manera incidental, com per exemple com es busca a través del navegador o el que es fa a Facebook, per inferir coses sobre tu, com ara què compraràs o quines són les teves afiliacions polítiques. És una manera indirecta de descobrir la gent. Per exemple, una càmera que ens està vigilant no pregunta: "Què fas?" - només cal veure què fem.

CT: I què és un algorisme?

CO: Els algorismes són càlculs que interpreten les dades que es recopilen per tal de crear una predicció. Penseu-hi com una equació matemàtica que intenta respondre a una pregunta que s'emmarca com a predicció, com ara: "Aquesta persona està a punt de comprar alguna cosa?" o "Aquesta persona està a punt de votar algú?"

CT: Per què estic sentint tantes coses ara mateix?

CO: Abans de la "big data", els estadístics farien coses cares com enquestar la gent per esbrinar el futur. Per exemple, fer preguntes directes a la gent com: "A qui vas a votar?" Ara, cada cop confiem més en "l'exhauriment de dades", és el que jo anomeno les dades que s'estan recopilant constantment per deduir coses sobre vosaltres.

Abans de la "big data", les empreses només tenien encertacions salvatges. Ara, tenim millors intuïcions. El més sorprenent és que la majoria dels algorismes de dades grans són inexactes i no hi ha cap raó per pensar que tenen raó. Però són millors que les suposicions salvatges. I és per això que les grans dades s’han enlairat com ho ha fet.

CT: Si són inexactes, què reflecteixen?

CO: conjunts de dades defectuosos que els alimentem. Els algoritmes no saben res més enllà del que els expliquem. De manera que, quan tinguem dades desiguals i les alimentem a l'algoritme o dades esbiaixades, pensarà que aquesta és la realitat.

Image

Ailsa Johnson / © Cultura de viatge

CT: Quin és un exemple del món real d'això?

CO: Un exemple pot ser que als Estats Units, les persones negres tenen cinc vegades més probabilitats de ser arrestades per fumar pot que les persones blanques. Això no és perquè els negres fumen pot més sovint, tots dos grups fumen pot al mateix ritme. És molt més probable que els negres siguin arrestats. Si ho dediqueu a un algorisme, com ho fem, inferirem correctament que els negres tenen molt més probabilitats, en el futur, de ser arrestats per fumar pot. I llavors donarà a les persones negres majors puntuacions de risc per criminalitat, que tenen un efecte sobre la condemna penal.

Un altre exemple és un experiment de pensament. Utilitzaré Fox News, perquè Fox News ha tingut erupcions relacionades recentment amb una cultura interna del sexisme. L'experiment és "Què passaria si Fox News tractés d'utilitzar les seves pròpies dades per crear un algorisme d'aprenentatge automàtic per contractar persones en el futur?"

Digem que busquem persones que tinguin èxit a Fox News, per exemple. Depèn de com definiríeu l’èxit, però normalment us fixareu en persones que aconsegueixen pujades, promocions o es mantenen una bona estona. En qualsevol d’aquestes mesures, les dades reflectirien que les dones no tenen èxit a Fox News. Si s'utilitza com a algorismes de contractació, es propagaria aquest problema. Es veuria a un conjunt de sol·licitants i diria "No vull contractar cap dona, perquè no tenen èxit aquí. No són bones contractacions. I no només ha de ser Fox News: tota cultura corporativa té prejudicis. Quan introduïu dades d'algorisme, el biaix d'algorisme es proposa que. Continua reforçant els biaixos que ja existeixen a la societat.

CT: Els prejudicis són intencionats?

CO: No crec que els científics de dades intentin fer algorismes masclistes o racistes. Però els algorismes d’aprenentatge automàtic són excepcionalment bons a l’hora de recollir patrons relativament matisats, i després de propagar-los. No és quelcom que facin els científics de forma intencionada, però és un biaix, però.

CT: Quin paper tenen els algorismes inexactes en la nostra vida diària?

CO: S’utilitzen en tota mena de decisions per a la vida de la gent: tot, des dels ingressos a la universitat fins a aconseguir una feina.

Hi ha algoritmes que decideixen com la policia farà policia als barris, així com algorismes que decideixen com els jutges condemnaran els acusats. Hi ha algoritmes que decideixen quant pagaràs per l’assegurança o quin tipus de TAE [tipus d’interès] s’obté a la targeta de crèdit. Hi ha algoritmes que decideixen el rendiment de la vostra feina que s’utilitza per determinar les pujades de retribució. Hi ha algoritmes a cada pas del camí, des del naixement fins a la mort.

CT: Llavors, on ens deixa això?

CO: Hem saltat a l’era de les grans dades i hem llençat algoritmes a tots els problemes que tenim, suposant que aquests algoritmes siguin més justos que els humans, però en realitat són igual de injustos que els humans. Hem de fer millor.

Feu clic aquí per llegir la segona part de la nostra entrevista amb el doctor O'Neil. El seu llibre "Les armes de la destrucció matemàtica: com les dades grans augmenten la desigualtat i amenaça la democràcia està disponible ara mateix".

Popular durant 24 hores