Leave a reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Las recientes elecciones presidenciales en Estados Unidos marcaron el cierre de un año sin precedentes en el que se esperaba que hasta dos mil millones de personas votaran en elecciones de algunas de las democracias más grandes del mundo, incluyendo India, Indonesia, México y la Unión Europea. Como una empresa que opera plataformas donde se lleva a cabo el discurso público, Meta comprende la responsabilidad de proteger la capacidad de las personas para expresar sus voces y garantizar que estemos preparados para las numerosas elecciones alrededor del mundo.

Enfoque en las elecciones

Desde 2016, hemos estado evolucionando nuestro enfoque hacia las elecciones para incorporar las lecciones aprendidas y anticiparnos a amenazas emergentes. Contamos con un equipo dedicado responsable de los esfuerzos de integridad electoral en toda la empresa Meta, que incluye expertos de nuestras áreas de inteligencia, ciencia de datos, producto e ingeniería, investigación, operaciones, contenido y políticas públicas y legales. En 2024, establecimos varios centros de operación electoral en todo el mundo para monitorear y reaccionar rápidamente a los problemas que surgían, incluyendo las principales elecciones en EE.UU., Bangladesh, Indonesia, India, Pakistán, el Parlamento de la UE, Francia, el Reino Unido, Sudáfrica, México y Brasil.

Con las elecciones en EE.UU. concluídas, estamos en condiciones de compartir algunas de las tendencias que hemos observado en nuestras plataformas y explicar cómo hemos buscado equilibrar la protección de la capacidad de las personas para expresarse con mantener la seguridad durante el año.

Facilitando la libre expresión

Lograr el equilibrio entre permitir que las personas sean escuchadas y mantener a las personas seguras es una tarea que ninguna plataforma podrá lograr correctamente el 100 por ciento del tiempo. Sabemos que, al hacer cumplir nuestras políticas, nuestras tasas de error son demasiado altas, lo que interfiere con la libre expresión que buscamos promover. Con frecuencia, contenido inofensivo es eliminado o restringido y muchas personas son penalizadas de manera injusta. A lo largo del año, hemos tratado de actualizar y aplicar nuestras políticas de contenido de manera justa para que las personas pueden ser escuchadas, y continuaremos trabajando en esto en los próximos meses.

  • Lanzamos controles de contenido político en Facebook, Instagram y Threads para dar a las personas la posibilidad de recibir más contenido político si lo desean. Estos controles se lanzaron en EE.UU. y están en proceso de implementación a nivel global.
  • Permitimos que las personas planteen preguntas o expresen preocupaciones sobre los procesos electorales en contenido orgánico. Sin embargo, no permitimos afirmaciones o especulaciones sobre corrupción electoral, irregularidades o sesgo cuando se combinan con contenido que sea percibido como amenazante. Aclaramos nuestras políticas para hacer esta distinción. Para el contenido pagado, prohibimos anuncios que cuestionen la legitimidad de una elección próxima o en curso, como hemos hecho desde 2020.
  • Actualizamos nuestro sistema de penalizaciones a principios de 2023 para hacerlo más justo al proteger la capacidad de las personas para ser escuchadas, al mismo tiempo que seguimos siendo eficaces en la aplicación contra quienes violan persistentemente nuestras políticas.
  • Realizamos auditorías anuales de palabras que designamos como insultos bajo nuestra política de Discurso de Odio, priorizando los mercados con elecciones próximas, con el objetivo de mantener listas actualizadas que protejan a las comunidades vulnerables mientras aseguramos que no se haga una vigilancia excesiva sobre el discurso político.
  • Además, actualizamos nuestro protocolo de penalización relacionado con figuras públicas suspendidas por violaciones durante períodos de disturbios civiles, actualizando la política para garantizar que los estadounidenses pudieran escuchar a los candidatos a la presidencia en igualdad de condiciones. Nos comprometimos a realizar revisiones periódicas sobre si se justifican las penalizaciones reforzadas.

A lo largo de las elecciones en todo el mundo en 2024, conectamos a las personas con información fiable sobre cómo votar a través de notificaciones en Facebook e Instagram.

  • Durante las elecciones generales de EE.UU. de 2024, las notificaciones en la parte superior del feed en Facebook e Instagram recibieron más de 1.000 millones de impresiones. Estas notificaciones incluían información sobre cómo registrarse para votar, votar por correo, votar temprano en persona y votar el día de las elecciones. Las personas hicieron clic en estas notificaciones más de 20 millones de veces para visitar sitios web oficiales del gobierno para más información.
  • También colaboramos con funcionarios electorales estatales y locales para enviar Alertas de Votación, y hemos enviado más de 765 millones de notificaciones en Facebook desde 2020. Esta es una herramienta que puede adaptarse según las necesidades de las situaciones en el terreno, por ejemplo, si ciertos lugares de votación necesitan horarios extendidos en el Día de las Elecciones.
  • Implementamos un intersticial de Resultados de Búsqueda en Facebook e Instagram en EE.UU., lo que significa que cuando las personas buscaban términos relacionados con las elecciones de 2024, se les mostraban enlaces a fuentes oficiales de información sobre cómo, cuándo y dónde votar. En Instagram, continuamos elevando stickers en las Stories que dirigen a las personas a información oficial sobre votación. También seguimos operando el Centro de Información Electoral en Facebook.
  • Las notificaciones en la parte superior del feed llegaron a millones de personas en países que celebraban elecciones alrededor del mundo en 2024, incluyendo:
    • En el Reino Unido, nuestro Recordatorio del Día de las Elecciones llegó a 43,6 millones de personas en Facebook e Instagram, con casi 900.000 personas haciendo clic para registrarse para votar o verificar su estado de registro.
    • En la UE, los usuarios interactuaron con estas notificaciones más de 41 millones de veces en Facebook y más de 58 millones de veces en Instagram.
    • En India, donde la notificación de Alerta de Votación se lanzó en Facebook antes de las Elecciones Nacionales el 17 de abril. La notificación fue publicada desde la página de Facebook de la Comisión Electoral de India y llegó a 145 millones de usuarios, dirigiendo a las personas para obtener más información.
    • En elecciones locales en Brasil, los usuarios interactuaron con notificaciones de recordatorio alrededor de 9,7 millones de veces en Facebook e Instagram.
    • En Francia, los usuarios hicieron clic en estas notificaciones en la aplicación más de 599.000 veces en Facebook y más de 496.000 veces en Instagram.

Meta también continúa ofreciendo transparencia líder en la industria para anuncios sobre cuestiones sociales, elecciones y política. Los anunciantes que ejecutan estos anuncios deben completar un proceso de autorización e incluir un aviso de “pago por” (“paid for by”). Estos anuncios se almacenan en nuestra Biblioteca de Anuncios disponible públicamente durante siete años. Este año, continuamos prohibiendo nuevos anuncios políticos, electorales y de cuestiones sociales en los EE.UU. durante la última semana de la campaña electoral, como hemos hecho desde 2020, ya que en los últimos días de una elección puede no haber suficiente tiempo para contestar nuevas afirmaciones. Desde enero de 2024, en ciertos casos también hemos requerido a los anunciantes que divulguen cuando utilizan IA u otras técnicas digitales para crear o alterar un anuncio político o de cuestiones sociales.

Monitoreo del impacto de la IA

A principios de año, mucha gente advertía sobre el impacto potencial de la IA generativa en las elecciones venideras, incluyendo el riesgo de campañas de desinformación y deepfakes generalizados. Según lo que hemos monitoreado en nuestros servicios, parece que estos riesgos no se materializaron de manera significativa y que cualquier impacto fue modesto y limitado en alcance.

  • Si bien hubo casos de uso confirmado o sospechado de IA de esta manera, los volúmenes se mantuvieron bajos y nuestras políticas y procesos existentes resultaron suficientes para reducir el riesgo asociado con el contenido generado por IA. Durante el período electoral de las principales elecciones mencionadas, las calificaciones del contenido de IA relacionado con elecciones, política y temas sociales representaron menos del 1% de toda la desinformación verificada.
  • Como parte de nuestros esfuerzos para prevenir el uso de Meta’s Imagine AI para crear deepfakes relacionados con las elecciones, rechazamos 590.000 solicitudes para generar imágenes del presidente electo Trump, el vicepresidente electo Vance, la vicepresidenta Harris, el gobernador Walz y el presidente Biden en el mes previo al día de las elecciones.
  • También monitoreamos de cerca el uso potencial de IA generativa por parte de campañas de influencia encubiertas – lo que llamamos redes de Comportamiento Inauténtico Coordinado (CIB) – y encontramos que solo lograron incrementos marginales en productividad y en la generación de contenido usando IA generativa. Esto no ha obstaculizado nuestra capacidad para interrumpir estas operaciones de influencia porque nos enfocamos en el comportamiento al investigar y desmantelar estas campañas, no en el contenido que publican – ya sea creado con IA o no.
  • En el período previo a la elección en EE.UU., requerimos que Meta AI respondiera preguntas sobre cuándo y cómo votar, proporcionando enlaces a fuentes autoritarias que pudieran ofrecer la información más actualizada. En el Día de las Elecciones, también requerimos que Meta AI respondiera ciertas preguntas sobre los candidatos y los resultados electorales dirigiendo a las personas a consultar fuentes autorizadas hasta que múltiples organizaciones de noticias proyectaran un ganador.
  • A lo largo de 2024, hemos cooperado con otros en nuestra industria para combatir posibles amenazas del uso de IA generativa. Por ejemplo, en febrero de 2024, firmamos el AI Elections Accord junto a docenas de otros líderes de la industria, comprometiéndonos a ayudar a prevenir que el contenido engañoso generado por IA interfiera en las elecciones globales de este año. En India, lanzamos una línea de ayuda de WhatsApp en asociación con la alianza de sectores cruzados contra la desinformación, incluyendo el establecimiento de una Unidad de Análisis de Deepfakes, la primera de su tipo en el mundo, para proporcionar evaluaciones de cualquier contenido digital en formato de audio o video que los usuarios sospecharan que podría ser un deepfake. Y antes de las elecciones del Parlamento Europeo, Meta financió y apoyó a la Red de Estándares de Verificación de Hechos Europea (EFCSN) en un proyecto destinado a mejorar las habilidades y capacidades de los verificadores de hechos europeos para refutar y contrarrestar la desinformación generada por IA.

Prevención de interferencias extranjeras

Este año, nuestros equipos han desmantelado alrededor de 20 nuevas operaciones de influencia encubiertas en todo el mundo, incluyendo en Medio Oriente, Asia, Europa y EE.UU.

  • Rusia sigue siendo la principal fuente de las operaciones de influencia encubiertas que hemos interrumpido hasta la fecha, con 39 redes desmanteladas en total desde 2017. Las siguientes fuentes más frecuentes de interferencia extranjera son Irán, con 31 redes CIB, y China, con 11.
  • La mayoría de las redes CIB que hemos interrumpido han tenido dificultades para construir audiencias auténticas, y algunas usaron “me gusta” y seguidores falsos para parecer más populares de lo que eran. Por ejemplo, desmantelamos una red CIB originaria principalmente de la región de Transnistria en Moldavia, que apuntaba a audiencias de habla rusa en Moldavia. Eliminar esta campaña antes de que pudieran construir audiencias auténticas en nuestras aplicaciones fue un éxito.
  • La gran mayoría de las redes CIB que interrumpimos globalmente intentaron difundirse a través de muchas aplicaciones en línea, incluyendo la nuestra, YouTube, TikTok, X, Telegram, Reddit, Medium, Pinterest y más. Hemos visto a varias operaciones de influencia mover gran parte de sus actividades a plataformas con menos salvaguardias que las nuestras. Por ejemplo, videos ficticios sobre las elecciones de EE.UU. (evaluados por la comunidad de inteligencia de EE.UU. como vinculados a operaciones de influencia basadas en Rusia) fueron publicados en X y Telegram en lugar de nuestras aplicaciones. En un número mínimo de ocasiones, donde personas en EE.UU. republicaron este contenido en nuestras aplicaciones, etiquetamos el contenido como reportado por estar vinculado a actores de influencia rusos.
  • La gran mayoría de las redes CIB operaban sus propios sitios web, probablemente para resistir las eliminaciones por parte de cualquier empresa. La operación más grande y persistente de este tipo es conocida como Doppelganger, que utiliza una vasta red de sitios web falsos, incluyendo algunos que suplantan entidades noticiosas y gubernamentales legítimas. Hemos creado el repositorio público más grande de las señales de amenaza de Doppelganger, exponiendo más de 6.000 dominios desde 2022, para que investigadores y otros equipos de este tipo puedan actuar, además de bloquearlos de ser compartidos en nuestras aplicaciones. Sin embargo, a pesar de algunas interrupciones por parte de gobiernos y otros, muchos de los dominios web de Doppelganger que hemos expuesto hasta la fecha han sido rápidamente reemplazados y continúan publicando nuevo contenido, y muchas de sus marcas permanecen activas en X y Telegram.
  • Antes de las elecciones de EE.UU., Doppelganger tuvo dificultades para atravesar nuestras aplicaciones y abandonó en gran medida la publicación de enlaces a sus sitios web. La gran mayoría de los intentos de Doppelganger para apuntar a EE.UU. en octubre y noviembre fueron detenidos proactivamente antes de que cualquier usuario viera su contenido.
  • Antes de las elecciones en EE.UU., ampliamos nuestra aplicación continua contra medios estatales rusos. Prohibimos a Rossiya Segodnya, RT y otras entidades relacionadas el acceso a nuestras aplicaciones globalmente por violaciones de nuestras políticas que prohíben participar o afirmar participar en interferencias extranjeras.

Estos hallazgos y políticas están destinados a darte una idea de lo que hemos visto y del amplio enfoque que hemos tomado durante este año de elecciones sin precedentes, pero están lejos de ser una cuenta exhaustiva de todo lo que hicimos y vimos. Tampoco es inflexible nuestro enfoque. Con cada elección importante, queremos asegurar que estamos aprendiendo las lecciones correctas y anticipándonos a las posibles amenazas. Mantener el equilibrio entre la libre expresión y la seguridad es un desafío constante y en evolución. A medida que evaluamos lo que hemos aprendido durante este año notable, mantendremos nuestras políticas bajo revisión y anunciaremos cualquier cambio en los meses por venir.

- A word from our sposor -

spot_img

Descubre lo que vimos en nuestras plataformas durante las elecciones globales de 2024