Zucked

resumenes-de-libros

Conozca la verdadera historia de Facebook y su impacto perjudicial en la sociedad.

 

Facebook es una de las empresas más populares de la historia. Con 2.2 mil millones de usuarios e ingresos que superaron los $ 40 mil millones en 2017, es un gran éxito. Pero más que ser popular, y rentable, Facebook es influyente. En menos de dos décadas, se ha convertido en una parte crucial de la esfera pública, la plataforma en la que no solo nos comunicamos con nuestros amigos, sino que leemos las noticias, intercambiamos opiniones y debatimos las noticias del día.

 

Pero la popularidad e influencia de Facebook ocultan una realidad oscura: carece de valores morales o cívicos claros para guiarla. Y en ausencia de una regulación efectiva, está perjudicando activamente a nuestra sociedad.

 

En este resumen, aprenderá cómo Facebook usa técnicas de manipulación para mantenerlo enganchado, y cómo un efecto secundario está polarizando el debate público. Las ideas muestran cómo Facebook prospera en la vigilancia, reuniendo datos sobre usted para mantenerlo enganchado en el sitio y aumentando su valor para sus anunciantes. Y comprenderá lo fácil que ha sido para actores externos como Rusia utilizar Facebook para influir en los usuarios de los Estados Unidos.

 

En este resumen, aprenderá

 

  • cuántos datos tiene Facebook sobre usted;
  •  

  • cómo Facebook ha ignorado persistentemente la privacidad de sus usuarios; y
  •  

  • por qué no deberíamos tener nada que temer sobre la regulación de Facebook y otros gigantes tecnológicos.
  •  

Los cambios tecnológicos y económicos permitieron el crecimiento de Facebook y una peligrosa cultura interna.

 

En el siglo XX, no había muchas empresas exitosas de Silicon Valley dirigidas por personas recién salidas de la universidad. La ingeniería informática exitosa se basó en la habilidad y la experiencia y fue necesario para superar las limitaciones de la capacidad, el almacenamiento y la memoria de procesamiento de la computadora. La necesidad de una infraestructura de hardware seria significaba que no cualquiera podía construir una nueva empresa, y ser un éxito instantáneo.

 

Los desarrollos tecnológicos a finales del siglo XX y principios del XXI cambiaron esto fundamentalmente. Cuando Mark Zuckerberg comenzó Facebook en 2004, muchas de estas barreras para las nuevas empresas simplemente habían desaparecido. Los ingenieros pueden crear un producto viable rápidamente, gracias a componentes de software de código abierto como el navegador Mozilla. Y la aparición del almacenamiento en la nube significó que las nuevas empresas simplemente podrían pagar una tarifa mensual por sus infraestructuras de red, en lugar de tener que construir algo costoso ellos mismos.

 

De repente, surgió el modelo Lean Start-Up. Las empresas como Facebook ya no necesitaban trabajar lentamente hacia la perfección antes de lanzar un producto. Podrían construir rápidamente algo básico, enviarlo a los usuarios y actualizar desde allí. Nació la famosa filosofía de Facebook “muévete rápido y rompe cosas”.

 

Esto también tuvo un profundo impacto en la cultura de empresas como Facebook. Un emprendedor como Zuckerberg ya no necesitaba un grupo grande y experimentado de ingenieros con experiencia en sistemas para desarrollar un plan de negocios.

 

De hecho, sabemos que Zuckerberg no quería personas con experiencia. Los hombres jóvenes sin experiencia, y la mayoría de las veces eran hombres, no solo eran más baratos, sino que podían moldearse a su imagen, haciendo que la empresa fuera más fácil de administrar.

 

En los primeros años de Facebook, el mismo Zuckerberg confiaba resueltamente, no solo en su plan de negocios, sino en el objetivo evidentemente beneficioso de conectar el mundo. Y a medida que los números de usuarios de Facebook, y eventualmente, la rentabilidad, se dispararon, ¿por qué alguien en su equipo lo cuestionaría? E incluso si quisieran, Zuckerberg había establecido las reglas de participación de Facebook para que tuviera un “voto de oro”, lo que significa que la compañía siempre haría lo que él decidiera.

 

Para crecer lo más rápido posible, Facebook hizo todo lo posible para eliminar las fuentes de fricción: el producto sería gratuito y la empresa evitaría la regulación, evitando así la necesidad de transparencia en sus algoritmos que podrían generar críticas.

 

Desafortunadamente, si bien estas fueron las condiciones adecuadas para el crecimiento de una superestrella mundial, también fueron condiciones que generaron un desprecio por la privacidad del usuario, la seguridad y la responsabilidad cívica.

 

Facebook recopila de manera agresiva datos sobre sus usuarios y ha mostrado un evidente desprecio por la privacidad del usuario.

 

Ahora sabes un poco sobre Facebook. ¿Pero qué tan bien te conoce Facebook?

 

Facebook tiene hasta 29,000 puntos de datos en cada uno de sus usuarios. Son 29,000 pequeñas cosas que sabe sobre tu vida, por el hecho de que te gustan los videos de gatos con los que has estado socializando recientemente.

 

Entonces, ¿dónde obtiene Facebook esos datos?

 

Take Connect, un servicio iniciado en 2008, que permite a los usuarios iniciar sesión en sitios web de terceros a través de Facebook. Muchos usuarios adoran la simplicidad de no tener que recordar innumerables contraseñas complicadas para otros sitios. De lo que la mayoría de los usuarios no se dan cuenta es que el servicio no solo inicia sesión. También permite que Facebook los vigile en cualquier sitio o aplicación que haya utilizado el inicio de sesión. ¿Usar Connect para iniciar sesión en sitios web de noticias? Facebook sabe exactamente lo que estás leyendo.

 

O toma fotos. A muchos de nosotros nos encanta etiquetar a nuestros amigos después de un divertido día o una noche de fiesta. Puede pensar que es una manera fácil de compartir con sus amigos, pero para Facebook, está proporcionando una valiosa recopilación de información sobre su ubicación, sus actividades y sus conexiones sociales.

 

Ahora, si una empresa es tan codiciosa por sus datos personales, al menos esperaría que los tratara con cuidado, ¿verdad? Desafortunadamente, desde los primeros días de Facebook, el negocio de Mark Zuckerberg ha mostrado un aparente desprecio por la privacidad de los datos.

 

De hecho, según Business Insider , después de que Zuckerberg reunió a sus primeros miles de usuarios, le envió un mensaje a un amigo para decirles que si alguna vez querían información sobre alguien en su universidad, deberían preguntar. Ahora tenía miles de correos electrónicos, fotos y direcciones. La gente simplemente los había enviado, dijo el joven empresario. Eran, en sus palabras informadas, “tontos”.

 

Una actitud arrogante hacia la privacidad de datos en Facebook ha persistido desde entonces. Por ejemplo, en 2018, los periodistas revelaron que Facebook había enviado materiales de marketing a los números de teléfono proporcionados por los usuarios para la autenticación de dos factores, una característica de seguridad, a pesar de haber prometido no hacerlo.

 

Y en el mismo año, se reveló que Facebook simplemente había descargado los registros telefónicos, incluidas las llamadas y los mensajes de texto, de aquellos de sus usuarios que usaban teléfonos Android. Una vez más, los usuarios en cuestión no tenían idea de que esto estaba sucediendo.

 

Facebook quiere tus datos por una razón: para ganar más dinero manteniéndote en la plataforma durante más tiempo y haciendo que su oferta a los anunciantes sea más valiosa. Echemos un vistazo a esto con más detalle.

 

Facebook utiliza la piratería de cerebro para mantenerlo en línea el mayor tiempo posible y aumentar sus ganancias.

 

Para las plataformas de redes sociales, el tiempo es dinero. Específicamente, su tiempo es su dinero. Porque cuanto más tiempo pasas en Facebook, Twitter o Instagram, y cuanto más atención les prestas, más publicidad pueden vender.

 

Como resultado, captar y mantener su atención es el corazón del éxito comercial de Facebook. El negocio ha mejorado mejor que nadie para entrar en tu cerebro.

 

Algunas de las técnicas que utiliza tratan sobre cómo muestra la información. Estos incluyen la reproducción automática de videos y una fuente interminable de información. Estos te mantienen enganchado al eliminar las señales normales para desconectarte. Puede llegar al final de un periódico, pero nunca al final de las noticias de Facebook.

 

Otras técnicas profundizan un poco más en la psicología humana, por ejemplo, explotando FOMO: el miedo a perderse. Intente desactivar una cuenta de Facebook, y se le presentará no solo una pantalla de confirmación estándar, sino también las caras de sus mejores amigos, Tom y Jane, y las palabras “Tom y Jane te extrañarán”.

 

Pero las técnicas más sofisticadas y siniestras utilizadas por Facebook se encuentran en el proceso de toma de decisiones de su inteligencia artificial, que decide qué mostrarle.

 

Cuando se desplaza por Facebook, puede pensar que está viendo una fuente de noticias simple. Pero no lo eres. Te enfrentas a una gigantesca inteligencia artificial que tiene grandes cantidades de datos sobre ti y te está alimentando con lo que cree que te mantendrá involucrado con el sitio el mayor tiempo posible. Y la mala noticia para la sociedad es que eso a menudo significa contenido que atrae tus emociones más básicas.

 

Eso es porque desencadenar nuestras emociones básicas es lo que te mantiene comprometido. Joy funciona, por eso los videos de gatos lindos son tan comunes. ¿Pero qué funciona mejor? Emociones como el miedo y la ira.

 

Como resultado, Facebook tiende a empujarnos hacia el contenido que nos pondrá furiosos porque los usuarios irritados consumen más contenido y lo comparten con más frecuencia. Por lo tanto, es menos probable que vea titulares tranquilos que describan eventos y es más probable que vea reclamos sensacionales en cortos videos impactantes.

 

Y eso puede volverse peligroso. Particularmente cuando nos quedamos atrapados en una burbuja donde nuestra indignación, miedos u otras emociones son constantemente reforzados por personas con puntos de vista similares. Ese es el peligro de la llamada burbuja de filtro, que veremos en el próximo capítulo.

 

Las burbujas de filtro generan polarización de las vistas.

 

Cada segundo que navegas en Facebook, estás introduciendo datos en su algoritmo de filtrado. Y el resultado es una burbuja de filtro , ya que Facebook filtra el contenido que cree que no le gustará y filtra el contenido que es más probable que lea, le guste y comparta.

 

Eli Pariser, presidente de la organización de campaña MoveOn, fue uno de los primeros en publicitar el efecto de las burbujas de filtro, en un Ted Talk de 2011. Pariser notó que, aunque su lista de amigos de Facebook estaba bastante equilibrada entre conservadores y liberales, no había nada neutral en su suministro de noticias. Su tendencia a dar me gusta, compartir o hacer clic en contenido liberal llevó a Facebook a darle más de lo que pensaba que quería, hasta que nunca vio ningún contenido conservador.

 

Como argumentó Pariser, esto es problemático. Muchas personas obtienen sus noticias e información de Facebook, y piensan que están recibiendo un equilibrio de contenido. Pero en realidad, los algoritmos con gran poder pero sin responsabilidades cívicas les están dando una visión sesgada del mundo.

 

Incluso surgen problemas peores cuando los efectos de burbuja de filtro cambian a los usuarios de las vistas principales a las más extremas. Esto puede suceder como resultado de algoritmos que desplazan a los usuarios hacia contenido más emotivo e indignante.

 

Por ejemplo, un ex empleado de YouTube, Guillaume Chaslot, escribió un software que mostraba cómo funcionaban las recomendaciones algorítmicas de YouTube. Demostró que, si un usuario mira algún video en la plataforma alrededor del 11 de septiembre, ese usuario recibirá recomendaciones para los videos de conspiración del 11 de septiembre.

 

Pero incluso sin algoritmos, las redes sociales a menudo radicalizan a las personas. Y ese es particularmente el caso cuando son miembros de grupos de Facebook. Hay innumerables grupos en Facebook, y sean cuales sean sus preferencias políticas, hay uno para usted. Y son excelentes para el negocio de Facebook, ya que permiten una fácil orientación para los anunciantes.

 

Pero pueden ser problemáticos. Cass Sunstein, el economista conductual y coautor de Nudge (2008), ha demostrado que cuando las personas con puntos de vista similares discuten problemas, sus opiniones tienden a hacerse más fuertes y extremas con el tiempo.

 

Hay otro problema con los grupos: son vulnerables a la manipulación. La organización Data for Democracy ha demostrado que solo uno o dos por ciento de los miembros de un grupo pueden dirigir su conversación, si saben lo que están haciendo.

 

Y esto es exactamente lo que hicieron los rusos antes de las elecciones estadounidenses de 2016.

 

Rusia utilizó Facebook como una forma subrepticia pero efectiva de influir en las elecciones estadounidenses.

 

¿Realmente sabes de dónde viene el contenido que lees en Facebook? Si estuvieras en los Estados Unidos en 2016, es muy probable que leas, y tal vez incluso hayas compartido, contenido de Facebook que se originó con trolls rusos.

 

A pesar de la creciente evidencia, Facebook negó que Rusia hubiera utilizado la plataforma hasta que, en septiembre de 2017, admitió haber descubierto gastos publicitarios de alrededor de $ 100,000 por cuentas falsas alojadas en Rusia. Más tarde, Facebook reveló que la interferencia rusa había llegado a 126 millones de usuarios en la plataforma, y ​​otros 20 millones en Instagram. Dado que 137 millones de personas votaron en las elecciones, es difícil no creer que la interferencia rusa haya tenido algún impacto.

 

Las tácticas de Rusia en las elecciones de 2016 fueron irritar a los partidarios de Trump, mientras deprimía la participación entre los posibles votantes demócratas.

 

Y la verdad es que fue fácil, gracias a los grupos de Facebook, que le ofrecieron a Rusia una manera fácil de enfocarse en la demografía clave. Por ejemplo, los operativos rusos dirigieron una serie de grupos centrados en personas de color, como el grupo Blacktivist, aparentemente con el propósito de difundir desinformación que reduciría la probabilidad de que los usuarios voten por la demócrata Hillary Clinton.

 

Además, los grupos facilitaron el intercambio de contenido. Tendemos a confiar en nuestros miembros del grupo; después de todo, comparten nuestros intereses y creencias. Por lo tanto, a menudo no criticamos de dónde proviene la información, si se comparte dentro de un grupo con el que nos identificamos.

 

El propio autor notó que sus amigos compartían imágenes profundamente misóginas de Hillary Clinton que se habían originado en grupos de Facebook que apoyaban a Bernie Sanders, el oponente de Clinton en las primarias demócratas. Era casi imposible creer que la campaña de Sanders estaba detrás de ellos, pero se estaban extendiendo viralmente.

 

Y la capacidad de Rusia para influir a través de grupos se demostró vívidamente con el notorio ejemplo de las protestas de la mezquita de Houston en 2016, cuando los eventos de Facebook controlados por los rusos organizaron protestas simultáneas a favor y en contra del Islam fuera de una mezquita en Houston, Texas. La manipulación fue parte de los esfuerzos generales de Rusia para sembrar la discordia y la confrontación en los Estados Unidos basados ​​en un sentimiento anti-minoritario y anti-inmigrante, ya que Rusia sabía que esto jugaría en las manos de la campaña de Trump.

 

Cuatro millones de personas votaron por Obama en 2012, pero no por Clinton en 2016. ¿Cuántos de estos cuatro millones no votaron por los demócratas debido a la desinformación rusa y las mentiras sobre la campaña de Clinton?

 

La historia de Cambridge Analytica destapó el enfoque arrogante de Facebook sobre la privacidad de los datos.

 

En 2011, Facebook celebró un acuerdo con el organismo y regulador de protección al consumidor estadounidense, la Comisión Federal de Comercio, que prohibió a Facebook las prácticas engañosas de privacidad de datos. Según el decreto, Facebook necesitaba obtener el consentimiento explícito e informado de los usuarios antes de poder compartir sus datos. Pero la triste realidad es que Facebook no hizo nada por el estilo.

 

En marzo de 2018, surgió una historia que vinculaba el impacto político de Facebook con su desprecio por la privacidad del usuario. Cambridge Analytica, una empresa que proporciona análisis de datos para la campaña electoral de Donald Trump, había cosechado y malversado casi cincuenta millones de perfiles de usuarios de Facebook.

 

Cambridge Analytica financió a un investigador, Aleksandr Kogan, para construir un conjunto de datos de votantes estadounidenses. Creó una prueba de personalidad en Facebook, que 270,000 personas tomaron a cambio de un par de dólares. La prueba recolectó información sobre sus rasgos de personalidad.

 

Crucialmente, también capturó datos sobre los amigos de Facebook de los examinados, los 49 millones de ellos colectivamente, sin que estos amigos supieran nada al respecto, y mucho menos dar su consentimiento. De repente, el equipo de datos de un controvertido candidato presidencial tenía un tesoro de datos personales muy detallados para aproximadamente 49 millones de personas. Y aunque Cambridge Analytica no tenía permitido, bajo los términos de servicio de Facebook, usar los datos comercialmente, lo hizo de todos modos.

 

Esto fue particularmente controvertido porque, según un denunciante, Cambridge Analytica pudo hacer coincidir los perfiles de Facebook con 30 millones de archivos de votantes reales. Esto le dio a la campaña de Trump datos enormemente valiosos sobre el trece por ciento de los votantes de la nación, lo que le permitió dirigir propaganda a estos votantes con una precisión increíble. Recuerde que solo tres estados decisivos, ganados por Trump con un margen combinado de solo 77,744 votos, le dieron una victoria en el Colegio Electoral. Parece casi imposible que la orientación de Cambridge Analytica, basada en la violación de datos de Facebook, no haya influido en este resultado.

 

Mientras se contaba la historia, Facebook intentó argumentar que había sido víctima de la mala práctica de Cambridge Analytica. Pero las acciones de Facebook sugieren lo contrario. Cuando Facebook se enteró de la violación de datos, escribió a Cambridge Analytica, pidiendo que se destruyeran las copias del conjunto de datos. Pero nunca se realizó una auditoría o inspección. En cambio, se le pidió a Cambridge Analytica que marcara una casilla en un formulario para confirmar el cumplimiento. Además, Facebook había integrado felizmente a tres miembros del equipo en las operaciones digitales de la campaña de Trump al mismo tiempo que Cambridge Analytica trabajaba para Facebook.

 

La historia de Cambridge Analytica fue un punto de inflexión. Muchos llegaron a creer que, en la búsqueda del crecimiento y las ganancias, Facebook había ignorado sus obligaciones morales y sociales.

 

Si esto es cierto, esta pregunta permanece: ¿Qué puede hacer la sociedad al respecto?

 

Facebook y otros gigantes tecnológicos deberían estar debidamente regulados para limitar el daño que pueden hacer.

 

Como lo han demostrado la interferencia rusa y los escándalos de Cambridge Analytica, Facebook no ha tomado la necesidad de regular su propio comportamiento lo suficientemente en serio. Quizás, entonces, ha llegado el momento de pensar en la regulación externa.

 

Un aspecto de esto debería ser la regulación económica diseñada para debilitar el poder general de mercado de Facebook y otros gigantes tecnológicos, al igual que el tipo de regulación que se aplicaba en el pasado a gigantes como Microsoft e IBM. Una de las razones por las que Facebook es tan poderoso es porque ha usado su peso financiero simplemente para comprar competidores, como Instagram y WhatsApp.

 

Esto no tiene por qué influir negativamente en el crecimiento económico o la innovación general, como muestra el ejemplo histórico del operador telefónico AT&T. En 1956, AT&T llegó a un acuerdo con el gobierno para controlar el poder en espiral de la compañía. Se limitaría al negocio de telefonía fija y licenciaría sus patentes sin costo para que otros pudieran usarlas.

 

Esto resultó ser una muy buena noticia para la economía de los EE. UU. Porque, al hacer que la invención y patente cruciales de AT&T, el transistor, estuvieran disponibles de forma gratuita, esta decisión antimonopolio esencialmente dio origen a Silicon Valley. Computadoras, videojuegos, teléfonos inteligentes e Internet, todo provenía del transistor.

 

Y, lo que es más importante, el caso también funcionó para AT&T. Confinado a un negocio central, sin embargo, tuvo tanto éxito que estuvo sujeto a otro caso de monopolio en 1984. Aplicar el mismo tipo de lógica a los gustos de Facebook y Google aún les permitiría prosperar, pero limitaría su poder de mercado y alentaría una mayor competencia. .

 

La regulación económica es una cosa. Pero si realmente queremos abordar el impacto dañino de Facebook en la sociedad, también necesitamos una regulación que llegue al corazón de su nocividad.

 

Un lugar para comenzar sería exigir la opción de una vista de noticias sin filtrar de Facebook. Con solo hacer clic en un botón, puede alternar su fuente de noticias de “su vista”, en base a los juicios de inteligencia artificial de Facebook de lo que lo mantendrá más interesado, a una visión más neutral o equilibrada de lo que está sucediendo en el mundo.

 

Otro paso positivo sería regular algoritmos e inteligencia artificial. En los Estados Unidos, esto podría hacerse a través de un equivalente a la Administración de Drogas y Alimentos para la tecnología, con la responsabilidad de garantizar que los algoritmos sirvan, en lugar de explotar, a los humanos. La auditoría obligatoria de terceros de los algoritmos crearía suficiente transparencia para evitar los peores casos de burbujas de filtro y manipulación.

 

Aceptamos y valoramos la regulación en muchas industrias, utilizándola para lograr el equilibrio correcto entre el interés público y la libertad económica. En la actualidad, cuando se trata de tecnología, ese equilibrio no se está alcanzando adecuadamente. Es tiempo de cambiar.

 

Resumen final

 

El mensaje clave en este libro:

 

Facebook se ha convertido en una catástrofe: mantener a las personas enganchadas a sus pantallas, empujándonos hacia visiones más extremas, superando la privacidad personal e influyendo en las elecciones. Es hora de defenderse y dejar de considerar aceptables los impactos negativos de Facebook en las personas y la sociedad.

 

Consejo práctico:

 

Cambie la apariencia física de sus dispositivos para reducir su impacto en su salud.

 

Dos cambios en la apariencia de sus dispositivos digitales pueden marcar una gran diferencia. Primero, cambiar su dispositivo al modo de turno nocturno reducirá los azules en la pantalla, lo que disminuye la fatiga visual y hace que sea más fácil conciliar el sueño. En segundo lugar, poner un teléfono inteligente en modo monocromo reduce su intensidad visual y, por lo tanto, el golpe de dopamina que obtienes al mirarlo.

 

¿Tienes comentarios?

 

¡Nos encantaría saber lo que piensas sobre nuestro contenido! ¡Simplemente envíe un correo electrónico a hola@epicurea.org con el título de este libro como asunto y comparta sus pensamientos!

 

Qué leer a continuación: El efecto de Facebook , por David Kirkpatrick

 

Ahora que ha escuchado la opinión de un inversor sobre los efectos de Facebook en las personas y en la sociedad, ¿por qué no profundizar y obtener una visión interna de los orígenes, el aumento y el impacto de Facebook? En The Facebook Effect , el respetado periodista tecnológico David Kirkpatrick explora la historia del gigante tecnológico.

 

las ideas para El efecto de Facebook explican cómo Facebook ha cambiado no solo la forma en que nos comunicamos entre nosotros, sino también cómo pensamos acerca de los medios y la política. Y al igual que Zucked , explora cómo Facebook ha alterado fundamentalmente nuestras concepciones de privacidad.