El canal de ajedrez de YouTube más popular del mundo fue bloqueado por robots después de que estos, guiados por los algoritmos de Google, dueña de YouTube, y configurado para detectar contenido racista y discursos de odio, confundiera la discusión sobre piezas de ajedrez en blanco y negro con racismo.

El ajedrecista croata Antonio Radic, también conocido como ‘Agadmator’, es un YouTuber, que produce videos de ajedrez y cuenta con más de un millón de suscriptores, pero un día descubrió que su canal estaba bloqueado por cargos de contenido ‘dañino y peligroso’.

Aunque el canal se restauró en 24 horas, YouTube no explicó por qué había bloqueado, no recibió ninguna explicación de esa plataforma de videos.

El canal de Radic se restauró 24 horas después. Su autor sospecha que la cuenta pudo haber sido bloqueada porque se refirió al juego de ajedrez como “Negro contra Blanco”.

YouTube se basa tanto en humanos como en algoritmos de IA, lo que significa que el sistema de IA podría cometer un error si no está entrenado correctamente para interpretar el contexto.

Después de revisar manualmente 1.000 comentarios del canal, se descubrió que AI había categorizado erróneamente el 82% de ellos como discurso de odio porque los comentarios usaban palabras como “negro”, “blanco”, “ataque” y “amenaza”.

La responsabilidad por el uso del algoritmo

La empresa que programa un algoritmo es responsable por su implementación correcta. Y por los daños que cause como consecuencia de su uso.

Toda plataforma de Internet puede estar sujeta a normas y pautas de moderación en tanto estén escritas de antemano y se apliquen de forma equitativa y pareja.

En consecuencia si hay errores o un mal una mala aplicación de esta política de uso de las plataformas, es decir fallas en la moderación del contenido que producen un perjuicio al usuario o al generador de ese contenido, entonces deberían abonar un resarcimiento económico por el daño producido.

El problema es que demandar esto puede ser costoso, y mientras se hacen ajustes al algoritmo los medios chicos y los generadores de contenido pueden tener que sorportar estas arbitrariedades.