Cambian las políticas de moderación de Facebook e Instagram | ver que hay de nuevo

En una serie de cambios radicales que cambiarán significativamente la forma en que se administran las publicaciones, videos y otros contenidos en línea, Meta cambiará las políticas de revisión de contenido en Facebook e Instagram, eliminará los verificadores de datos y los reemplazará con “comunidades” generadas por los usuarios. .” reemplaza con Similar a la X de Elon Musk, anunció el martes el director ejecutivo Mark Zuckerberg. Los cambios se producen cuando el presidente electo Donald Trump asume el cargo. Trump criticó a Zuckerberg y Meta por lo que creía que era una censura de las voces de derecha. “Los verificadores de hechos se han vuelto extremadamente sesgados políticamente y han destruido más confianza de la que han creado”, dijo Zuckerberg en un vídeo anunciando la nueva política el martes. “Lo que comenzó como un movimiento para ser más inclusivo se utiliza cada vez más para silenciar opiniones y excluir a personas con ideas diferentes, y eso ha ido demasiado lejos”. Como resultado del cambio en la moderación del contenido, el contenido aparecerá en la plataforma, dijo a Fox el recién nombrado Jefe de Asuntos Globales de Meta, Joel Kaplan. La asociación de Meta con verificadores de datos externos fue “inicialmente bien intencionada, pero hubo mucho conflicto político sobre si eligieron verificar los hechos y cómo”, dijo el martes. justo en los rangos más altos de Meta, y Zuckerberg busca mejorar su relación con Trump antes de que asuma el cargo como presidente electo a finales de este mes. Un día antes, Meta anunció que el aliado de Trump y director ejecutivo de UFC, Dana White, se uniría a su junta directiva, junto con otros dos nuevos directores. Meta también dijo que donaría 1 millón de dólares al fondo inaugural de Trump y que Zuckerberg quiere desempeñar un “papel activo” en las discusiones sobre políticas tecnológicas. Está directamente relacionado con el cambio de administración anunciado el martes. Dijo: “No hay duda de que ha habido un cambio en los últimos cuatro años. Lo hemos visto. Hay mucha presión social y política, se trata de más contenido, más moderación, más censura y tenemos una oportunidad real”. expresarnos y eso marca la diferencia”. El cambio en la moderación inversa crítica marca un cambio notable en la forma en que Meta maneja las afirmaciones falsas y engañosas en sus plataformas. La empresa se lanzó en 2016. programa independiente de verificación de datos después de acusaciones de que no logró impedir que actores extranjeros usaran sus plataformas para difundir desinformación y sembrar discordia entre los estadounidenses. Desde entonces, ha seguido luchando contra la proliferación de contenido controvertido en su plataforma, incluida información errónea sobre las elecciones, historias contra las vacunas, violencia y discursos de odio. La empresa creó equipos de seguridad, implementó programas automatizados de filtrado o mitigación. Estableció una especie de Corte Suprema independiente para la aparición de reclamos falsos y decisiones de moderación complejas conocida como Junta de Revisión. Pero ahora, Zuckerberg está siguiendo los pasos de Musk, el líder de las redes sociales que desmanteló los equipos de verificación de datos de la compañía y creó marcadores de contexto generados por los usuarios después de comprar X, también conocido como Twitter, en 2022. Meta dijo que estaba poniendo fin a su asociación con verificadores de datos externos y estableciendo notas comunitarias como esta y que ha sido realmente constructivo y efectivo”, dijo Kaplan. La compañía también planea configurar sistemas automatizados que verifiquen violaciones de políticas. No se debería censurar demasiado contenido”. Sus sistemas ahora se centrarán únicamente en investigar delitos ilegales y “extremadamente graves” como terrorismo, explotación sexual infantil, drogas, fraude y malversación de fondos. Los usuarios deben informar otras inquietudes antes de que la empresa pueda evaluarlas. Zuckerberg dijo el martes que el complejo sistema de moderación de contenido de Facebook había provocado que se eliminara de la plataforma demasiado contenido no violatorio debido a un error. Por ejemplo, si los sistemas cometen un error del 1% de vez en cuando, eso podría exponer a millones de personas de los más de 2 mil millones de usuarios de la compañía, dijo Zuckerberg. “Lo que comenzó como un movimiento para ser más inclusivo se está utilizando cada vez más para callar opiniones y personas con ideas diferentes, y eso ha ido demasiado lejos”. Pero Zuckerberg reconoció que la nueva política podría crear nuevos desafíos para la moderación de contenidos. “La verdad es que es una compensación”, dijo en el vídeo. También reduciremos el número de publicaciones y cuentas. deshacerse de las restricciones de contenido sobre ciertos temas. Como parte del cambio, Meta gestiona sus políticas de contenido desde California hasta Texas y otras partes de Estados Unidos.

En una serie de cambios radicales que cambiarán significativamente la forma en que se administran las publicaciones, videos y otros contenidos en línea, Meta cambiará las políticas de revisión de contenido en Facebook e Instagram, eliminará los verificadores de datos y los reemplazará con “comunidades” generadas por los usuarios. .” reemplaza con Las notas tipo X de Elon Musk fueron anunciadas el martes por el director ejecutivo Mark Zuckerberg.

Los cambios se producen cuando el presidente electo Donald Trump asume el cargo. Trump criticó a Zuckerberg y Meta por lo que creía que era una censura de las voces de derecha.

“Los verificadores de datos estaban muy sesgados políticamente y destruyeron más confianza de la que crearon”, dijo Zuckerberg. vídeo anunciando la nueva política martes “Lo que comenzó como un movimiento para ser más inclusivo se utiliza cada vez más para silenciar opiniones y excluir a personas con ideas diferentes, y eso ha ido demasiado lejos”.

Sin embargo, Zuckerberg reconoció que existe una “compensación” en la nueva política, señalando que los cambios en la moderación del contenido darán como resultado que aparezca más contenido dañino en la plataforma.

El recién nombrado jefe de asuntos globales de Meta, Joel Kaplan, dijo a Fox el martes que la asociación de Meta con verificadores de datos externos “fue inicialmente bien intencionada, pero hay muchos prejuicios políticos en la forma en que eligen verificar los hechos e investigar”. . “

El anuncio se produce en medio de un giro ideológico más amplio hacia la derecha en los altos rangos de Meta, y mientras Zuckerberg busca mejorar las relaciones con Trump antes de que el presidente electo asuma el cargo a finales de este mes. El día anterior, Meta anunció que se uniría al aliado de Trump y director ejecutivo de UFC, Dana White, junto con otros dos nuevos ejecutivos. Meta también dijo que donaría un millón de dólares al fondo inaugural de Trump y que Zuckerberg quiere desempeñar un “papel activo” en las discusiones sobre políticas tecnológicas.

Kaplan, un destacado republicano que fue ascendido al máximo cargo político de la empresa la semana pasada, reconoció que estuvo directamente involucrado en la reestructuración administrativa anunciada el martes.

Según él, “no hay duda de que ha habido cambios en los últimos cuatro años. Hemos sentido mucha presión social y política en la dirección de más contenidos, moderación, más censura”. Hemos visto y tenemos una “Una verdadera oportunidad. Ahora tenemos una nueva administración y un nuevo presidente que son grandes defensores de la libertad de expresión y eso marcará la diferencia”.

Un importante punto de inflexión

Los cambios de moderación cambian drásticamente la forma en que Meta maneja las afirmaciones falsas y engañosas en sus plataformas.

En 2016, la compañía lanzó un programa independiente de verificación de datos luego de acusaciones de que no logró impedir que actores extranjeros usaran su plataforma para difundir desinformación y sembrar discordia entre los estadounidenses. Desde entonces, ha seguido luchando contra la proliferación de contenido controvertido en su plataforma, incluida información errónea sobre las elecciones, historias contra las vacunas, violencia y discursos de odio.

La empresa ha creado equipos de seguridad, ha implementado software automatizado para filtrar o reducir la visibilidad de reclamaciones fraudulentas y ha creado una Corte Suprema independiente para tomar decisiones de moderación complejas, conocida como junta de revisión.

Pero ahora Zuckerberg está siguiendo los pasos del líder de las redes sociales Musk, quien después de comprar X, entonces conocido como Twitter, en 2022 desmanteló los equipos de verificación de datos de la compañía y utilizó etiquetas contextuales generadas por los usuarios como único método de la plataforma para “notas comunitarias”. “creado corregir afirmaciones falsas.

Meta dijo que estaba poniendo fin a sus asociaciones con verificadores de datos externos y estableciendo recordatorios comunitarios similares.

“Creo que Snake ha sido fundamental para generar debate y lograr que la gente se centre en la libre expresión, y ha sido realmente constructivo y productivo”, dijo Kaplan.

La compañía también planea ajustar sus sistemas automatizados que escanean en busca de violaciones de políticas, lo que “causó que se censurara demasiado contenido que no debería haber sido”. Sus sistemas ahora se centrarán únicamente en investigar delitos ilegales y “extremadamente graves” como terrorismo, explotación sexual infantil, drogas, fraude y malversación de fondos. Los usuarios deben informar otras inquietudes antes de que la empresa pueda evaluarlas.

Zuckerberg dijo el martes que los complejos sistemas de moderación de contenido de Facebook habían provocado que se eliminara de la plataforma por error demasiado contenido infractor. Por ejemplo, si los sistemas fallan el 1% de las veces, eso podría representar a millones de personas de los más de 2 mil millones de usuarios de la empresa.

“Hemos llegado a un punto en el que hay muchos errores y mucha censura”, dijo Zuckerberg. “Lo que comenzó como un movimiento para ser más inclusivo se utiliza cada vez más para callar opiniones y personas con ideas diferentes, y eso ha ido demasiado lejos”.

Pero Zuckerberg reconoció que la nueva política podría crear nuevos desafíos para la moderación de contenidos.

“La verdad es que es una compensación”, dijo en el vídeo. “Esto significa que detectamos menos cosas malas, pero también reducimos la cantidad de publicaciones y cuentas de personas inocentes que eliminamos accidentalmente”.

La compañía también se está deshaciendo de las restricciones de contenido sobre ciertos temas, como la inmigración y la identidad de género, limitando la cantidad de contenido político que los usuarios pueden ver en sus feeds.

Como parte de los cambios, Meta trasladará los equipos de confianza y seguridad responsables de la política de contenido de California a Texas y otros lugares de Estados Unidos. “Creo que ayuda a generar confianza al hacer este trabajo en lugares donde nuestros equipos no tienen que preocuparse por los prejuicios”, dijo Zuckerberg.

Fuente