Mentiras, malditas mentiras y mentiras electorales

[ad_1]

En Techdirt, Mike Masnick recibió una serie de comunicados de prensa en respuesta a la decisión de YouTube. no moderar la desinformación electoral.

A juzgar por el número de muy comunicados de prensa enojados que llegaron a mi bandeja de entrada el viernes pasado, uno pensaría que YouTube había decidido personalmente quemar la democracia. Verás, ese día la empresa anunció una actualización de su enfoque para moderar la desinformación electoraldiciendo efectivamente que ya no intentaría vigilar la mayor parte de esa información errónea sobre la legitimidad de las elecciones de 2020:

Primero instituimos una provisión de nuestra política de desinformación electoral se centró en la integridad de las últimas elecciones presidenciales de EE. UU. en diciembre de 2020, una vez que había pasado la fecha de puerto seguro de los estados para la certificación. Dos años, decenas de miles de retiros de movies y un ciclo electoral más tarde, reconocimos que period hora de reevaluar los efectos de esta política en el panorama cambiante de hoy. En el entorno precise, descubrimos que si bien eliminar este contenido frena parte de la información errónea, también podría tener el efecto no deseado de restringir el discurso político sin reducir significativamente el riesgo de violencia u otros daños en el mundo actual. Con eso en mente, y con las campañas de 2024 en marcha, dejaremos de eliminar contenido que presente afirmaciones falsas de fraude generalizado, errores o fallas en las elecciones presidenciales de EE. UU. de 2020 y otras pasadas. Esto entra en vigencia hoy, viernes 2 de junio. Al igual que con cualquier actualización de nuestras políticas, deliberamos cuidadosamente sobre este cambio.

Hubo una vez en que distinguir entre la verdad y la mentira period responsabilidad private de cada individuo, pero eso fue en los viejos tiempos cuando la noción de responsabilidad private no causaba que las personas tuvieran PTSD. Para ser justos, muchos han sido engañados intencionalmente por información errónea y la han consumido voluntariamente, creyendo que estaban asumiendo la responsabilidad private de buscar la verdad creyendo las mentiras más extravagantes e infundadas, como si le hubieran robado las elecciones a Trump.

¿La objeción de YouTube al papel de árbitro de la desinformación es un reflejo de su conclusión de que no se trata de desinformación? No es que estén diciendo que la desinformación no está sucediendo, al menos cuando se trata de información “dura” sobre la votación, o que dejarán pasar cualquier cosa.

Todas nuestras políticas de desinformación electoral siguen vigentes, incluidas aquellas que prohíben el contenido destinado a engañar a los votantes sobre la hora, el lugar, los medios o los requisitos de elegibilidad para votar; afirmaciones falsas que podrían desalentar materialmente la votación, incluidas aquellas que cuestionan la validez de la votación por correo; y contenido que anime a otros a interferir en los procesos democráticos.

Entonces, ¿por qué YouTube ha decidido adoptar un enfoque de no intervención para algunos datos erróneos pero no para otros? Masnick ofrece cuatro posibles razones para la nueva posición de YouTube.

  1. Darse cuenta de que la moderación había ido demasiado lejos. Básicamente, una versión de lo que la empresa decía públicamente. Se dieron cuenta de que tratar de hacer cumplir una prohibición contra la información errónea sobre las elecciones de 2020 period, de hecho, generar demasiado debate legítimo. Si bien muchos descartan esto, parece una posibilidad muy actual. Recordar, la moderación de contenido a escala es imposible de hacer bien, y con frecuencia implica errores. Y parece possible que los errores ocurran aún más con el video, en el que el discurso político más legítimo se confunde con desinformación y se elimina. Esto podría incluir cosas como legítimo discusiones sobre los problemas de las máquinas de votación electrónica, o preguntas sobre la construcción de sistemas electorales más resistentes que podrían marcarse accidentalmente como desinformación.
  2. Darse cuenta de que eliminar las afirmaciones falsas no marcaba la diferencia. Esto es algo así como un corolario del primer elemento, y se insinúa en la declaración anterior. Desafortunadamente, esta sigue siendo un área muy poco estudiada de la moderación de contenido (hay algunos estudios, pero se necesita mucha más investigación): qué tan efectivas son las prohibiciones y eliminaciones para detener la propagación de desinformación maliciosa. Como hemos discutido en un contexto algo diferente, es realmente no está claro que la desinformación en línea es en realidad tan poderoso como algunos lo hacen parecer. Y si eliminar esa información no tiene mucho impacto, entonces puede que no valga la pena el esfuerzo basic.
  3. El mundo se ha movido. Para mí, esta parece ser la razón actual más possible. La mayoría de las personas en los EE. UU. básicamente han decidido creer lo que creen. Eso podría ser que (como muestra toda la evidencia actual) que las elecciones de 2020 fueron perfectamente justas y Joe Biden fue el ganador legítimo o (como no lo respalda la evidencia actual), todo estuvo “amañado” y Trump debería haber ganado. Nadie va a cambiar de opinión en este momento, y ningún video de YouTube convencerá a la gente de una forma u otra. Y, en este punto, este tema en explicit está tan lejos en el espejo retrovisor que el costo de continuar monitoreando esta información errónea simplemente no vale la pena por la falta de cualquier beneficio o cambio en las creencias de las personas.
  4. YouTube está preocupado por un gobierno republicano en 2025. Esta es la toma cínica. Dado que la negación de las elecciones de 2020 es ahora un elemento clave de la plataforma del Partido Republicano, la compañía puede estar decidiendo “jugar bien” con la parte del Partido Republicano que vende desinformación (que se ha movido de la periferia a la corriente principal) y ha decidido que este es un posición más defendible para audiencias inevitables/mala legislación/and so on.

Como cube Mike, es possible que su motivación sea una combinación de estos factores en lugar de uno solo, pero al contrario de los comunicados de prensa en su bandeja de entrada, él asume la posición de que este no es el fin del mundo tal como lo conocemos.

Pero me parece que la locura absoluta entre algunos, afirmando que esto prueba que el mundo se está acabando, puede no ser precisa. Estoy completamente a favor de que las empresas decidan que no quieren alojar cierto contenido porque no quiero estar asociado con esopero todavía estamos aprendiendo si las prohibiciones son o no la herramienta más efectiva para lidiar con la desinformación y la desinformación flagrantes, y es muy posible que dejar ciertas afirmaciones en paz es en realidad una política razonable en algunos casos.

Dejando de lado las dificultades, ya sea a escala o solo individualmente, de determinar qué es, de hecho, información errónea, el acto de eliminar el contenido eleva la percepción de su validez en la mente de quienes tienden a creer en cualquier conspiración absurda que favorezca a su tribu. ? Si bien es difícil trazar la línea que separa lo potencialmente falso de lo potencialmente verdadero, hay algunas afirmaciones tan obviamente falsas que lo único que logran es hacer que los locos sean aún más locos y, posiblemente, más peligrosos al creer que todo es una amenaza existencial digna. morir, o matar, por. Lamentablemente, hay algunos que creen en esta basura y hacen un daño horrible, mientras creen que están haciendo lo correcto y asumiendo la responsabilidad private.

[ad_2]

Add a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *