No fue solo la verificación de hechos lo que Meta abandonó sus plataformas en preparación para una segunda administración Trump. El gigante de las redes sociales también ha relajado sus reglas sobre el discurso de odio y el abuso, nuevamente siguiendo la X de Elon Musk, especialmente en lo que respecta a la orientación sexual y la identidad de género, así como al estatus migratorio. Los cambios han alarmado a los defensores de los grupos vulnerables, quienes dicen que la decisión de Meta de reducir la moderación de contenido podría provocar daños en el mundo real. El director ejecutivo de Meta, Mark Zuckerberg, dijo el martes que la compañía “eliminaría las restricciones en temas como la inmigración y el género”, citando las “recientes elecciones” como catalizador. Por ejemplo, Meta ha añadido lo siguiente a sus llamados estándares comunitarios que se espera que sigan los usuarios: “No promovemos ninguna información sobre enfermedades mentales o anormalidades basadas en el género o la orientación sexual, incluido el transgénero y el discurso político y religioso sobre la sexualidad. “Te dejaremos entrar. El uso casual de palabras como “homosexualidad” y “queer”. En otras palabras, ahora está permitido llamar enfermos mentales a los homosexuales en Facebook, Threads e Instagram. Otros insultos y lo que Meta llama “estereotipos dañinos históricamente asociados con el acoso” (la cara negra y la negación del Holocausto) todavía están prohibidos. Vídeo a continuación: Vea el anuncio de Mark Zuckerberg sobre cambios radicales en la Política de revisión de metacontenido. La empresa con sede en Menlo Park, California, también eliminó una frase de su “marco político” que explica por qué prohíbe el discurso de odio. La frase ahora eliminada dice que el discurso de odio “crea un entorno de intimidación y exclusión y, en algunos casos, puede fomentar la violencia fuera de línea”. “El cambio de política es una táctica para obtener el beneficio de la administración entrante y al mismo tiempo reducir los costos comerciales asociados con el contenido. moderación”, dijo Ben Leiner, profesor de política y tecnología en la Escuela de Negocios Darden de la Universidad de Virginia. “Esta decisión causará un daño real no sólo en Estados Unidos, donde el discurso de odio y la desinformación abundan en las plataformas de redes sociales, sino también en el extranjero, donde la desinformación en Facebook ha alimentado conflictos étnicos en lugares como Myanmar”. Video a continuación: Profesor universitario analiza la información errónea y la eliminación de verificadores de datos externos por parte de Meta Meta en realidad impidió que su plataforma fuera utilizada para “incitar a la violencia fuera de línea” en Myanmar en 2018 y admite que no hizo lo suficiente para conseguirlo, lo que alimentó el odio comunitario y violencia contra la minoría musulmana rohingya del país.\Arturo Bejar, ex director de ingeniería de Meta, en su artículo en línea experiencia en frenar el acoso, dijo que si bien gran parte de la atención se centró en el anuncio de verificación de datos de la compañía el martes, estaba más preocupado por los cambios en la política de contenido dañino de Meta. Esto se debe a que Meta ahora depende de los informes de los usuarios antes de tomar cualquier acción, en lugar de aplicar reglas de manera proactiva contra cosas como la autolesión, la intimidación y el acoso. La compañía dijo que planea centrar sus sistemas automatizados en “combatir delitos ilegales y graves como el terrorismo, la explotación sexual infantil, las drogas, el fraude y el fraude”. Según Béjar, este “sabe que para cuando el informe sea presentado y revisado, Meta habrá causado la mayor parte de su daño”. “Me estremezco al pensar lo que estos cambios significarán para nuestros jóvenes. Meta está abdicando de la responsabilidad de su seguridad y no seremos afectados por estos cambios porque Meta se niega a ser transparente sobre los daños que están experimentando los adolescentes y van demasiado lejos para diluirlos. o detener leyes que podrían ayudar”, dijo.
No fue solo la verificación de hechos lo que Meta abandonó sus plataformas en preparación para una segunda administración Trump. El gigante de las redes sociales también ha relajado sus reglas sobre el discurso de odio y el abuso, nuevamente siguiendo la X de Elon Musk, especialmente en lo que respecta a la orientación sexual y la identidad de género, así como al estatus migratorio.
Los cambios han alarmado a los defensores de los grupos vulnerables, quienes dicen que la decisión de Meta de reducir la moderación de contenido podría provocar daños en el mundo real. El director ejecutivo de Meta, Mark Zuckerberg, dijo el martes que la compañía “eliminaría las restricciones en temas como la inmigración y el género”, citando las “recientes elecciones” como catalizador.
Por ejemplo, el Meta agregó lo siguiente a sus reglas, llamado estándares comunitarios – se solicita a los usuarios que cumplan con lo siguiente:
“Permitimos reclamaciones de enfermedades mentales o anormalidades basadas en el género u orientación sexual, discusiones políticas y religiosas sobre transgenerismo y homosexualidad, y el uso de palabras no serias como ‘queer'”. En otras palabras, ahora está permitido. Llamar a los homosexuales enfermos mentales en Facebook, Threads e Instagram. Otros insultos y lo que Meta llama “estereotipos dañinos históricamente asociados con el acoso” (la cara negra y la negación del Holocausto) todavía están prohibidos.
Vídeo a continuación: Vea el anuncio de Mark Zuckerberg sobre cambios radicales en su Política de revisión de metacontenido.
La empresa con sede en Menlo Park, California, también eliminó una frase de su “marco de políticas” que explica por qué prohíbe ciertos comportamientos de odio. La frase ahora eliminada establece que el discurso de odio “crea una atmósfera de intimidación y exclusión y, en algunos casos, puede promover la violencia fuera de línea”.
“El cambio de políticas es una táctica para ganarse el favor de una administración entrante y al mismo tiempo reducir los costos comerciales asociados con la moderación de contenido”, dijo Ben Leiner, profesor de tendencias políticas y tecnológicas en la Escuela de Negocios Darden de la Universidad de Virginia. “Esta decisión causará un daño real no sólo en Estados Unidos, donde el discurso de odio y la desinformación abundan en las plataformas de redes sociales, sino también en el extranjero, donde la desinformación de Facebook ha alimentado conflictos étnicos en lugares como Myanmar”.
Vídeo a continuación: Profesor universitario habla sobre la eliminación de información errónea y metaverificadores de datos de terceros
meta en realidad Reconocido en 2018 que no hizo lo suficiente para evitar que su plataforma fuera utilizada para “incitar a la violencia fuera de línea” en Myanmar, alimentando el odio comunitario y la violencia contra la minoría musulmana rohingya del país.
\
Arturo Béjar, ex director de ingeniería de Meta y conocido por su experiencia en la prevención del acoso en línea, dijo que si bien la mayor parte de la atención se ha centrado en el anuncio de verificación de datos de la compañía el martes, dijo que la Política de Contenido Nocivo de Meta decía que estaba más preocupado por los cambios.
Esto se debe a que Meta ahora depende de los informes de los usuarios antes de tomar cualquier acción, en lugar de aplicar activamente reglas contra cosas como la autolesión, la violencia y el abuso. La compañía dijo que planea centrar sus sistemas automatizados en “combatir delitos ilegales y graves como el terrorismo, la explotación sexual infantil, las drogas, el fraude y el fraude”.
Según Béjar, “Meta sabe que para cuando el informe sea presentado y revisado, habrá hecho mucho daño”.
“Me estremezco al pensar lo que significarán estos cambios para nuestros jóvenes. Meta está abdicando de la responsabilidad de su propia seguridad y no nos veremos afectados por estos cambios porque Meta se niega a ser transparente sobre el daño que los adolescentes están sufriendo y ellos también van. “Estamos lejos de diluir o detener las leyes que podrían ayudar”, afirmó.