El algoritmo fuera de control: ¿Qué pasa con los videos para niños en YouTube?

Por Luciano Prenafeta y Daniel Venegas

En una charla TED , James Bridle expone un fenómeno llamativo. Si uno busca en YouTube por videos para niños, saltan a la vista algunas cosas. Primero, la enorme cantidad de videos con características muy similares. Segundo, la excesiva cantidad de visitas que reciben esos videos. Por ejemplo, hagan el ejercicio de buscar “Huevos sorpresa” en YouTube. De inmediato se encontrarán con una gran cantidad de videos con sobre 100 millones de visitas. 

Este video supera los 260 millones de visitas. El contenido es simple, una animación bastante amigable que muestra niños abriendo huevos sorpresa uno por uno para revelar animales en su interior. No parece haber mucho especial. ¿A qué tipo de personas les gusta tanto este tipo de videos como para darle 260 millones de visitas? Pues a los niños pequeños, claro. Lo que empieza a llamar más la atención es que si uno comienza a bajar por la página, la cantidad de este tipo de videos parece ser infinita. Lo mismo pasa si uno busca “Familia dedo”, “Juguetes”, y para qué decir sus contrapartes en inglés, que llegan a una audiencia muchísimo más grande.

Es normal que hayan videos infantiles en YouTube. Hay todo tipo de videos. Pero si uno empieza a escarbar más a fondo, o más bien a simplemente seguir la cadena de videos recomendados, uno se encuentra cada vez más con escenas inexplicables. Una clásica es la gran cantidad de videos de adultos disfrazados como Elsa de Frozen y Spiderman, actuando situaciones ridículas sobre un fondo de efectos de sonido y música para niños.

https://www.youtube.com/watch?v=Qcaei1HFyEA

En YouTube hay una funcionalidad de reproducción automática. Si está activada, al terminar un video se reproducirá de inmediato alguno otro que el algoritmo de recomendaciones ponga en primera posición. Entonces lo que parece estar ocurriendo es que padres le están dando a sus hijos acceso a tablets o computadores y les prenden YouTube, con videos inofensivos, y ellos simplemente se quedan viendo video tras video hasta el cansancio. Así, aquellos usuarios que logran aprovecharse correctamente del algoritmo de YouTube para aparecer en primer lugar pueden captar millones de visitas, y por lo tanto pueden monetizar sus videos con publicidad. Para lograrlo crean contenido que es combinaciones de las palabras más buscadas: Surprise eggs, Peppa Pig, Frozen, Finger Family, Spiderman, Mickey Mouse, etc. Muchas veces los videos recomendados no tienen por qué causar ninguna preocupación, más allá ser increíblemente repetitivos. En otros casos pasan a ser unas extrañas combinaciones de Frozen, Peppa Pig, Mickey Mouse y Marvel, pero que a parte de no tener sentido, no causan ningún daño. En otros casos, sin embargo, derechamente llega a tratarse de contenido violento o sexual disfrazado como contenido infantil. Los creadores de los videos parecen ir desde educadores de párvulos profesionales, a equipos de animación 3D con experiencia, a softwares que crean videos de manera aleatoria, a personas comunes y corrientes con un disfraz y cámara baratos, hasta derechamente trolls que les divierte crear contenido rupturista y jugar con el sistema.

Lo que parece estar en acción aquí es un algoritmo fuera de control. ¿Por qué tanta gente está creando tantos videos ridículos? ¿Millones de personas decidieron al mismo tiempo que sería una buena dedicar su tiempo a disfrazarse de spiderman, a jugar con juguetes de niños en frente de una cámara o a abrir huevos de Kinder Sorpresa? Poco probable. Más bien, como dice James Bridle, estamos ante un algoritmo que automáticamente redirecciona hacia las combinaciones de tags más atractivas, y ante un ejército de personas que crean videos que calcen con esas combinaciones. Pero ojo; no serían las personas quienes deciden crear esos escenarios incoherentes, es el propio algoritmo. El algoritmo dice: Elsa, Spiderman y el Joker es una buena combinación, y un ejército de personas se apura a crear tales videos.

Económicamente, este fenómeno parece tener que ver con un nuevo tipo de desarrollo que está en contraposición al que ha dominado durante el siglo XX. Antes se situaba al “éxito de venta” como motor de la economía (Anderson, 2007).

En la actualidad, por otro lado, la creación de softwares avanzados, la interconexión de ordenadores cada vez más amplia y masiva, y la comunicación de las culturas locales a categorías globales, han construido un mundo alterno digital que está sostenido tecnológicamente (Castells,  2009). Este incremento en los niveles comunicacionales y el acceso a estos medios de manera masiva, han generado un escenario en donde convergen las distintas preferencias individuales en las más diversas áreas. Así, existen plataformas y algoritmos que tratan temas infinitos y operan con millones de usuarios. Los individuos pueden tanto manifestar como satisfacer sus intereses más ocultos desde las facilidades digitales y los distintos nichos que este fenómeno multinivel de interacción ha desarrollado.

La economía de Larga Cola -o Long Tail, en inglés-, es el resultado de esa ampliación y convergencia masiva de intereses individuales que es alimentada desde la oferta especificada de contenidos digitales, y que construyó un escenario en donde hay más bienes de nicho, es decir productos o servicios especializados y precisos, que productos de éxito. De esta forma, “cuando los consumidores conversan entre sí descubren que, colectivamente, sus gustos son muchísimo más diversos de lo que sugieren los planes de marketing dirigidos a ellos” (Anderson, 2007, p.78). Esto es resultado de lo que Anderson (2007) llama la democratización de las herramientas de producción, en donde se han multiplicado “las categorías de ‘productores’ -personas que pueden hacer lo que hace unos años solo podían hacer los profesionales-”. Así aparecen los denominados “prosumidores”, aquellos usuarios que consumen y producen contenido al mismo tiempo (Rifkin, 2014) y que con ello contribuyen a la ampliación de nichos con potencialidad económica. Los costos de acceso a estos nichos son hoy en día relativamente bajos, para así a atraer sujetos con capacidad de convergencia y que conformen una demanda que se convierta en lo suficientemente gruesa como para explotar aquel nicho.

Lo que realizan estas plataformas digitales para facilitar el acceso a miles de usuarios y orientar la demanda, es utilizar “filtros” que reducen los costos de búsqueda de los intereses del usuario. Estos tienen que ver con algoritmos inentendibles para la mayoría de los consumidores digitales, que operan en las plataformas como clasificaciones y recomendaciones individuales que ayudan y motivan al consumidor a involucrarse más en los contenidos que le atraen (Anderson, 2007). La publicidad también alimenta esto y actúa así, reflejando como Internet va conduciendo a los usuarios en una monetización de la atención sin regulación normativa. Chris Anderson (2007) manifiesta esta convergencia, alimentada por la inteligencia artificial, como “intereses que se distribuyen en comunidades afines cada vez más pequeñas, que se concentran más y más en su tema preferido, como siempre sucede cuando se reúnen personalidades afines. Alentados por la compañía, virtual o no, exploran juntos lo desconocido, y se aventuran más allá del terreno trillado” (Anderson, 2009, p.78).

Anderson (2007) ve la larga cola como un fenómeno eminentemente positivo, que le da la posibilidad a los usuarios a acceder a un número prácticamente infinito de “nichos”. Lo que no menciona es la gran probabilidad de que estos nichos, justamente al no ser “éxitos” construidos por profesionales con enormes recursos, pueden resultar ser simplemente un montón de nichos basura. La caída de la economía de éxitos no implica que los nichos surgientes sean todos material de buena calidad. De hecho, la factibilidad de monetizar una mayor cantidad de productos justamente puede llevar a incentivos para bajar la calidad de todo el catálogo. Si antes el cine, la música, al estar constreñidos por la capacidad física de las tiendas de DVDs y CDs, enfocaban todos sus recursos en producir éxitos de taquilla (Anderson, 2007), ahora, al saber que sus catálogos pueden ser infinitos y aun así lograr que un porcentaje altísimo de los productos se vendan, no tienen el incentivo de antes para producir contenido de calidad. Al contrario, el imperativo se vuelve producir más, no mejor. Es más rentable producir mucho contenido malo que un poco bueno. Ejemplo de esto son las películas y series de mala calidad que ofrece Netflix, o en nuestro caso, los vídeos infantiles sin sentido que proporciona YouTube. Como lo explica James Bridle, la situación actual permite que aparezca lo más morboso, los deseos más oscuros y las actitudes más ocultas de los individuos.

Si hacemos una lectura Luhmanniana (1996), podemos decir que se ha diferenciado un sistema cerrado de videos de niños en YouTube que opera a través de selecciones. Este elige qué videos son recomendados y cuáles no. Los humanos le prestan complejidad, son necesarios para producir los videos. Pero las personas aquí no están en el control. Las personas de hecho están siendo llevadas por este algoritmo a actuar en las maneras más ridículas posibles y no parece haber nadie capaz de controlar lo que está pasando. James Bridle cuenta que cuando se cuestiona a los programadores de este tipo de sistemas automáticos, no pueden decir nada más que – “¡Es la tecnología! No hay nada que podamos hacer”. Mostrando así lo que podríamos llamar una diferenciación del sistema de inteligencia artificial que impide que el entorno se entrometa en sus operaciones (Luhmann, 1996).

Como dice James Bridle, lo más aterrador de los millones de incomprensibles  videos que la gente está produciendo, es que se salieron de nuestras manos. No hay nadie responsable de esto. Es un algoritmo andando por sí mismo. ¿Queremos que una gran parte de el crecimiento de los niños esté marcado por las locuras que crea una máquina? Claro que este fenómeno no solo se aplica para los videos infantiles, pero quizás sean los niños los menos capaces de discernir la calidad de los contenidos, y por lo tanto, los más propensos a funcionar como motor del sistema. Es gracias a los ojos poco discriminativos de niños de menos de cinco años que tales videos llegan a los cientos de millones de visitas, aunque ciertamente este fenómeno también ocurre con grupos etáreos algo mayores, como podrían ser los Youtubers Gamers para niños en edad escolar, por dar un ejemplo.

Ante la situación actual, James Bridle urge a que como sociedad tomemos el control de los algoritmos. Para esto sería necesario en principio un conocimiento más generalizado de su funcionamiento -siendo que la verdad es que por la naturaleza de los algoritmos de tipo machine learning, ni siquiera sus creadores saben exáctamente cómo funcionan. Las palabras de Bridle recuerdan a Habermas (1987), quien cree que como sociedad somos capaces de llegar a acuerdos sustantivos por medio del discurso. La condición para que podamos llegar a acuerdos válidos es que en la discusión puedan participar todos los afectados, y esto es imposible si no existe conocimiento del funcionamiento de este tipo de tecnologías.

Actualmente la mayor parte del funcionamiento de nuestros medios de comunicación no solo es incomprensible para la mayor parte de la sociedad, sino que se vuelve incontrolada, funcionando como sistema cerrado (Luhmann, 1996). No creemos que la solución sea renegar de la tecnología. Autores como Anderson (2007) y Rifkin (2014) se han empeñado en mostrar los efectos positivos de las nuevas tecnologías. Lo importante es que como sociedad seamos capaces de aprovechar lo bueno y evitar lo malo, y tal cosa no parece ser posible si le dejamos todo al funcionamiento no-transparente de los computadores. Como humanos tenemos la capacidad de discernir y elegir. Tampoco se promueve el caso de que el internet pase a ser controlado centralizadamente por algún dictador que decida qué es apto para ser visto y qué no. El llamado es a que nos eduquemos y que en conjunto se abra la discusión sobre el tipo de contenido que queremos producir y la manera en que este debe ser organizado. Es cierto que para Luhmann (1996) tal cosa podría ser imposible -se trataría de un aumento de complejidad del mundo- pero si se fuese a lograr, no podríamos pensar en poner la carga sobre la persona común para aprender sobre programación avanzada. Hay una responsabilidad sobre los hombros de los expertos en informática de hacer más transparentes el funcionamiento de sus creaciones, demanda que ya se está viendo en la forma de la exigencia de saber cómo se utilizan los datos personales que constantemente se están recolectando de toda la gente que usa internet.

Es necesario ser críticos. No olvidemos que mientras la economía Long Tail (Anderson, 2007) se aplica a productos tales como las películas y los videos que ofrecen Netflix y YouTube, esto no se aplica a su vez a portales de contenido, los que de hecho se han reducido en cantidad a lo largo de las últimas dos décadas. Actualmente, en el mundo occidental YouTube prácticamente no tiene competencia. ¿Debemos dejar que su algoritmo de reproducción automática y su posibilidad de monetización de la atención controle tanto el contenido que crecen viendo los niños como el que se dedican a producir los adultos?

BIBLIOGRAFÍA

Anderson, C. (2007). La economía Long Tail. De los mercados de masas al triunfo de lo minoritario. Barcelona, España: Ediciones Urano.

Castells, M. (2009). Comunicación y Poder. Madrid, España: Alianza Editorial.

Habermas, J. (1987). Teoría de la Acción Comunicativa. Madrid, España: Taurus

Luhmann, N. (1996). Introducción a la Teoría de Sistemas. México D.F, México: Universidad Iberomamericana.

Rifkin, J. (2014). La sociedad del coste marginal cero. Barcelona, España: Paidós.

Este artículo fue publicado en Audiencias digitales, Economía, Long Tail, Medios, Usuarios y etiquetado , , , , , , . Marcador del enlace permanente.

2 Respuestas a El algoritmo fuera de control: ¿Qué pasa con los videos para niños en YouTube?

  1. ¡Interesante artículo! Que seamos capaces de coproducir contenido audiovisual crea importantes desafios en cuanto a la responsabilidad de este contenido con los receptores, más aún cuando estos últimos no son capaces de recibir críticamente lo que están viendo y escuchando. Ahora, lo que dice Bridle está algo desactualizado, pues desde finales del año pasado youtube dejó de funcionar con un algoritmo. Youtube actualmente utiliza inteligencia artificial para designar sus criterios de recomendaciones. Este sistema funciona en base a las determinadas selecciones que van haciendo los usuarios en la plataforma, es decir, si existe algo así como un algoritmo, este cambia y se adapta a las elecciones que hacen los usuarios. Por lo tanto, no está tan fuera del control de los usuarios.
    No obstante, esto sigue trayendo desafíos, estos principalmente enfocados en qué contenido puede aprender la inteligencia artificial sobre nosotros/as. ¿Puede la inteligencia artificial aprender imitar nuestras conductas más corrosivas? ¿Hay riesgos en que nos expongamos solamente a aquel contenido que nos sea placentero? Son algunas de las preguntas que me surgen con este nuevo método de selección de videos.
    Dejo un video de un divulgador científico (que suelo seguir), el que habla más en profundidad sobre el tema.
    https://www.youtube.com/watch?v=JBZx03342eM

  2. Gracias por el video. Tengo que conceder que el lenguaje técnico del artículo -así como de la charla de James Bridle- está desactualizado. Así mismo, me declaro bastante ignorante en lo que respecta a la inteligencia artificial/machine learning. El video me sirvió para aclarar algunos temas.

    Teniendo en cuenta que el término “algoritmo” no aplica al sistema de recomendaciones de YouTube, de todas maneras veo que el argumento de Bridle se sostiene. Es evidente que lo que Bridle describe justamente es una red neuronal y no un algoritmo a la antigua regido por una serie de pasos pre-establecidos por un programador. La idea justamente es que el sistema de recomendaciones de YouTube ha sido dejado en manos de un sistema que no somos capaces de controlar, ni de entender.

    Si bien los usuarios tienen tangencialmente cierta influencia sobre la red neuronal, me parece que tal influencia está muy lejos de ser algo consciente. Difícilmente se podrían encausar los gustos agregados de millones de personas.

    En cualquier caso, yo sé que YouTube permite borrar recomendaciones, permite decirle a la página que uno no quiere seguir recibiendo cierto tipo de contenido. Lo sé porque yo lo hago constantemente, cuando por hacer click en un meme de pronto mi página inicial se llena de videos de “PRANKS GONE WRONG” o “top 10 saddest anime deaths”. Sin embargo, imagino que niños menores de cinco años no son capaces de tal discriminación.

    Y respecto a tu pregunta ” ¿Puede la inteligencia artificial aprender imitar nuestras conductas más corrosivas?”, tal es un tema que Bridle menciona. Si el machine learning funciona procesando una serie de ejemplos proporcionados por nosotros, y sabemos que la historia humana está llena de prejuicios, racismo, misoginia, odio, etc., entonces las redes neuronales resultantes necesariamente tendrán que imitar y reproducir esos prejuicios -y seguramente agregarles una capa de justificación con el argumento falaz de que no se trataría de prejuicios, sino de efectos necesarios de un proceso optimizado. Aquí justamente es donde entraría la necesidad de discutir sobre el manejo consciente de la inteligencia artificial.

Los comentarios están cerrados.