• Dólar
  • BNA $893 ~ $893
  • BLUE $1035 ~ $1035
  • TURISTA $1428.8 ~ $1428.8

14 C ° ST 14.39 °

Unión Radio 91.3 en vivo

Para evitar confusiones

YouTube eliminó 30.000 videos con información falsa sobre las vacunas

En términos generales, la campaña removió con más de 800.000 clips con datos erróneos sobre el coronavirus.

12 Marzo de 2021 20.43

YouTube eliminó de su plataforma 30.000 videos que incluyeron información falsa y/o engañosa sobre las vacunas para el Covid-19. Esta precisión se conoce a seis meses de que Google, la empresa detrás de ese servicio, actualizara sus políticas para abordar las fake news en específico vinculadas a esos tratamientos.

Antes de octubre del año pasado YouTube aplicaba regulaciones menos específicas. Es decir, moderaba la presencia de noticias falsas relacionadas al coronavirus, aunque las normativas no hacían referencia a las vacunas en particular, explica el sitio Axios.

De acuerdo a la fuente, en la popular plataforma se eliminaron más de 800.000 videos que difundieron información errónea sobre el Covid-19 en general. Los arriba mencionados 30.000 hacían referencia a las diferentes vacunas cuya disponibilidad en diferentes países se tradujo en un aumento de la desinformación en algunos entornos en línea.

A pesar de las cifras divulgadas, cabe señalar que las pautas que Google estableció para YouTube son más laxas si se las compara con las determinaciones que tomaron otros servicios digitales de gran alcance, como Facebook y Twitter. Siguiendo a Engadget, el portal de videos solamente aborda un subconjunto específico de afirmaciones sobre las vacunas para el Covid-19, siguiendo las pautas de entidades como la Organización Mundial de la Salud.

“Los videos que violan la política de vacunas, según las reglas de YouTube, son aquellos que contradicen el consenso de expertos sobre las vacunas de las autoridades sanitarias o de la Organización Mundial de la Salud”, señala la fuente al respecto.

¿Cómo se realiza la moderación? Los videos son marcados en primera instancia por sistemas de inteligencia artificial o por revisores humanos, para luego pasar a otro nivel de revisión. Las cuentas que violan las normas reciben una advertencia, que podría derivar en un bloqueo permanente.

Revisiones humanas y artificiales

En septiembre de 2020 Financial Times publicó un informe en el que contó que YouTube decidió devolver el trabajo de revisión de contenido a moderadores humanos, luego de que los sistemas automatizados que empleó fallaran más de la cuenta.

Cuando comenzó la pandemia, Google se vio en la obligación de reducir la carga de trabajo de los 10.000 moderadores de su equipo y asignó parte de esa tarea a mecanismos robóticos, es decir, inteligencia artificial. Pero la solución no fue del todo eficiente: entre abril y junio el sistema automatizado eliminó más de 11 millones de videos, una suma superior a la habitual, barriendo una gran cantidad de contenido que no infringía reglas. En otra palabras, arrojó muchos “falsos positivos”.

La inteligencia artificial fue demasiado severa y provocó el enojo de muchos creadores de contenido. Desde YouTube señalaron que eran conscientes de los inconvenientes que traería aparejado el cambio: “Una de las decisiones que tomamos (al comienzo de la pandemia) cuando se trataba de máquinas que no podían ser tan precisas como los humanos, era que íbamos a errar para asegurarnos de que nuestros usuarios estuvieran protegidos, aunque eso podría resultar en un número ligeramente más alto de videos rechazados”, comentaron.