# Los moderadores de contenido informaron sobre un 80% de errores en los sistemas de IA
La inteligencia artificial complica y no simplifica el trabajo de los moderadores de contenido. No puede reconocer de manera confiable la violencia y el mal, informa Bloomberg citando a 13 filtradores profesionales de materiales en línea.
Uno de los empleados de TikTok bajo el seudónimo de Kevin afirmó que hace más de un año se le encargó utilizar un programa de IA en su trabajo. Estimó que la cantidad de errores era de aproximadamente el 70%. Por ejemplo, la inteligencia artificial puede informar sobre un bajo nivel de combustible en el panel de instrumentos del automóvil en el video, aunque debería analizar el velocímetro, que muestra 200 km/h.
Kevin cree que, a pesar de las dificultades que surgen, los empleadores seguirán reemplazando a las personas por máquinas.
Los moderadores profesionales han confirmado la afirmación: la IA comienza a aplicarse más rápido de lo que aprende a filtrar de manera efectiva el contenido malicioso.
Los expertos temen la aparición de un entorno en línea controlado por inteligencia artificial, donde el odio, la propaganda, la corrupción de menores y otras formas de amenazas en línea se difundirán libremente.
«Si se opta por implementar IA para reducir el número de especialistas en seguridad, esto llevará a su disminución. Se necesitan personas reales», dijo el director de tecnología del Centro Canadiense de Protección Infantil, Lloyd Richardson.
El trabajo de un moderador de contenido causa traumas emocionales, y contratar a suficientes personas es una tarea complicada. Los usuarios solo en YouTube suben más de 20 millones de videos al día. Las empresas apuestan por la inteligencia artificial, sin embargo, esta solo interfiere.
De 13 moderadores con los que hablaron los periodistas de Bloomberg, 12 afirmaron que su trabajo se ha complicado tras la integración de redes neuronales.
«No podemos confiar en las sugerencias de la IA. En el 80% de los casos se equivoca. Ni siquiera miramos sus propuestas», dijo Janerke Kaidenova, una empleada de 36 años de una empresa de moderación de contenido en Kazajistán.
Kevin pasa tiempo corrigiendo errores, colocando manualmente etiquetas superprecisas para todo lo que ve. Este trabajo solo aumenta la carga y quita tiempo que se podría dedicar a tareas más urgentes.
Él está seguro de que sus meticulosas correcciones están educando efectivamente al sistema, y al final ella lo reemplazará, aunque la dirección no lo dice explícitamente.
Recordemos que en mayo de 2024 Reddit anunció una asociación con OpenAI, que proporcionó a los usuarios de Reddit y moderadores nuevas funciones basadas en IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Los moderadores de contenido informaron sobre un 80% de errores en los sistemas de IA.
La inteligencia artificial complica y no simplifica el trabajo de los moderadores de contenido. No puede reconocer de manera confiable la violencia y el mal, informa Bloomberg citando a 13 filtradores profesionales de materiales en línea.
Uno de los empleados de TikTok bajo el seudónimo de Kevin afirmó que hace más de un año se le encargó utilizar un programa de IA en su trabajo. Estimó que la cantidad de errores era de aproximadamente el 70%. Por ejemplo, la inteligencia artificial puede informar sobre un bajo nivel de combustible en el panel de instrumentos del automóvil en el video, aunque debería analizar el velocímetro, que muestra 200 km/h.
Kevin cree que, a pesar de las dificultades que surgen, los empleadores seguirán reemplazando a las personas por máquinas.
Los moderadores profesionales han confirmado la afirmación: la IA comienza a aplicarse más rápido de lo que aprende a filtrar de manera efectiva el contenido malicioso.
Los expertos temen la aparición de un entorno en línea controlado por inteligencia artificial, donde el odio, la propaganda, la corrupción de menores y otras formas de amenazas en línea se difundirán libremente.
El trabajo de un moderador de contenido causa traumas emocionales, y contratar a suficientes personas es una tarea complicada. Los usuarios solo en YouTube suben más de 20 millones de videos al día. Las empresas apuestan por la inteligencia artificial, sin embargo, esta solo interfiere.
De 13 moderadores con los que hablaron los periodistas de Bloomberg, 12 afirmaron que su trabajo se ha complicado tras la integración de redes neuronales.
Kevin pasa tiempo corrigiendo errores, colocando manualmente etiquetas superprecisas para todo lo que ve. Este trabajo solo aumenta la carga y quita tiempo que se podría dedicar a tareas más urgentes.
Él está seguro de que sus meticulosas correcciones están educando efectivamente al sistema, y al final ella lo reemplazará, aunque la dirección no lo dice explícitamente.
Recordemos que en mayo de 2024 Reddit anunció una asociación con OpenAI, que proporcionó a los usuarios de Reddit y moderadores nuevas funciones basadas en IA.