La historia de “cómo Facebook se volvió adicto a la desinformación” representa todo lo que va mal en el mundo de la tecnología. Y digo mundo, y no industria, porque sus amenazas a la sociedad y la democracia no habrían sido posibles sin la acción (o más bien la inacción) de los gobiernos que permitieron que lo que nació como una red social para ligar en la Universidad de Harvard se convirtiera en una herramienta capaz de propiciar un genocidio en Myanmar 13 años después.
“La máxima principal para todos los trabajadores de la red social consiste en aumentar el crecimiento y la participación, aunque eso signifique difundir odio, teorías de la conspiración y extremismo. Su director de IA, Joaquin Quiñonero, creó los algoritmos que lo consiguieron y ahora no sabe cómo arreglar el problema”, reveló en 2021 la periodista Karen Hao en MIT Technology Review después de que la compañía le permitiera acompañar y entrevistar al responsable y a otros trabajadores durante varias semanas. En eso se ha convertido el ciclo de vida de algunas tecnologías: nacen, ofrecen unos usos relativamente útiles para la gente y crecen hasta volverse incontrolables, opacas y peligrosas con el único fin de seguir dando rentabilidad a sus dueños.
Es lo que pasa cuando los avances que gobiernan el mundo se diseñan única y exclusivamente pensando en el beneficio de las empresas que los crean, sin tener en cuenta sus riesgos y amenazas para las personas individuales y la sociedad general. Así es como hemos llegado a un contexto social dominado por la polarización, el extremismo y el odio, donde cada vez cuesta más saber qué es verdad y qué es mentira, y en el que nuestra capacidad de prestar atención ejercer un pensamiento crítico se va mermando cada vez más.
seguir leyendo acá