Leave a reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Las plataformas de Meta están diseñadas para ser espacios donde las personas puedan expresarse libremente. Esto puede resultar complicado. En plataformas donde miles de millones de personas pueden tener una voz, se exhiben tanto lo bueno como lo malo y lo feo. Pero eso es la expresión libre.

En un discurso en la Universidad de Georgetown, Mark Zuckerberg argumentó que la libertad de expresión ha sido la fuerza motriz detrás del progreso en la sociedad estadounidense y en todo el mundo, y que inhibir el discurso, por bien intencionadas que sean las razones, a menudo refuerza las instituciones existentes y las estructuras de poder en lugar de empoderar a las personas. Dijo: “Algunas personas creen que dar voz a más personas está generando división en lugar de unirnos. Más personas en el espectro creen que lograr los resultados políticos que consideran importantes es más importante que cada persona tenga una voz. Creo que eso es peligroso.”

En los últimos años, hemos desarrollado sistemas cada vez más complejos para gestionar el contenido en nuestras plataformas, en parte en respuesta a la presión social y política para moderar el contenido. Este enfoque ha ido demasiado lejos. A pesar de que muchos de estos esfuerzos fueron bien intencionados, con el tiempo se han expandido hasta el punto en que estamos cometiendo demasiados errores, frustrando a nuestros usuarios y obstaculizando con frecuencia la libre expresión que pretendíamos promover. Se censura demasiado contenido inocente, muchas personas se encuentran injustamente «encarceladas» en Facebook, y a menudo somos demasiado lentos para responder cuando esto ocurre.

Queremos corregir eso y volver a nuestro compromiso fundamental con la libertad de expresión. Hoy, estamos implementando algunos cambios para permanecer fieles a ese ideal.

Finalización del programa de verificación de hechos de terceros, transición a notas comunitarias

Cuando lanzamos nuestro programa independiente de verificación de hechos, fuimos muy claros en que no queríamos ser los árbitros de la verdad. Tomamos lo que pensamos era la mejor y más razonable decisión en ese momento, que fue confiar esa responsabilidad a organizaciones independientes de verificación de hechos. La intención del programa era que estos expertos independientes brindaran a las personas más información sobre lo que ven en línea, en particular sobre engaños virales, para que pudieran juzgar por sí mismos lo que veían y leían.

No fue así como se desenvolvieron las cosas, especialmente en los Estados Unidos. Los expertos, como cualquier otra persona, tienen sus propios sesgos y perspectivas. Esto se reflejó en las elecciones que algunos hicieron sobre qué verificar y cómo. Con el tiempo, terminamos con demasiado contenido siendo verificado que la gente entendería como discurso político legítimo y debate. Nuestro sistema, entonces, adjuntó verdaderas consecuencias en forma de etiquetas intrusivas y reducción de distribución. Un programa creado para informar a menudo se convirtió en una herramienta para censurar.

Ahora estamos cambiando este enfoque. Pondremos fin al actual programa de verificación de hechos de terceros en los Estados Unidos y comenzaremos a movernos hacia un programa de Notas Comunitarias. Hemos visto que este enfoque funciona en X, donde permiten a su comunidad decidir cuándo las publicaciones pueden ser potencialmente engañosas y necesitan más contexto, y personas de una diversa gama de perspectivas deciden qué tipo de contexto resulta útil para otros usuarios. Creemos que esto podría ser una mejor manera de lograr nuestra intención original de proporcionar información relevante sobre lo que están viendo, y que esté menos propenso a sesgos.

  • Una vez que el programa esté en marcha, Meta no escribirá las Notas Comunitarias ni decidirá cuáles se muestran. Están escritas y calificadas por usuarios contribuyentes.
  • Al igual que hacen en X, las Notas Comunitarias requerirán acuerdo entre personas con una gama de perspectivas para ayudar a evitar calificaciones sesgadas.
  • Tenemos la intención de ser transparentes sobre cómo diferentes puntos de vista informan las Notas que se muestran en nuestras aplicaciones, y estamos trabajando en la mejor manera de compartir esta información.
  • Las personas pueden registrarse hoy para la oportunidad de ser de los primeros colaboradores en este programa a medida que esté disponible.

Planeamos implementar las Notas Comunitarias en los EE.UU. primero durante los próximos meses y continuaremos mejorándolo a lo largo del año. Al hacer la transición, eliminaremos nuestro control de verificación de hechos, detendremos la despriorización de contenido verificado y, en lugar de superponer advertencias intrusivas a pantalla completa que deben ser aceptadas antes de poder ver la publicación, utilizaremos una etiqueta mucho menos obtrusiva que indicará que hay información adicional para aquellos que deseen verla.

Permitir más discursos

Con el tiempo, hemos desarrollado sistemas complejos para gestionar el contenido en nuestras plataformas, que se han vuelto cada vez más difíciles de aplicar. Como resultado, hemos estado aplicando nuestras reglas con demasiada frecuencia, limitando el debate político legítimo y censurando contenido trivial, lo que ha provocado que demasiadas personas se enfrenten a acciones de aplicación frustrantes.

Por ejemplo, en diciembre de 2024, eliminamos millones de piezas de contenido cada día. Aunque estas acciones representan menos del 1% del contenido producido diariamente, creemos que uno o dos de cada 10 de estas acciones pudieron haber sido errores (es decir, el contenido puede que no haya violado realmente nuestras políticas). Esto no tiene en cuenta las acciones que tomamos para abordar ataques de spam adversarios a gran escala. Planeamos ampliar nuestros informes de transparencia para compartir cifras sobre nuestros errores regularmente para que las personas puedan rastrear nuestro progreso. Como parte de eso, también incluiremos más detalles sobre los errores que cometemos al hacer cumplir nuestras políticas de spam.

Queremos deshacer el desbordamiento de nuestra misión que ha hecho que nuestras reglas sean demasiado restrictivas y propensas a la sobre-aplicación. Vamos a eliminar varias restricciones en temas como inmigración, identidad de género y género que son objeto de frecuente discurso y debate político. No es correcto que cosas puedan decirse en televisión o en el Congreso, pero no en nuestras plataformas. Estos cambios de política pueden tardar algunas semanas en implementarse completamente.

También vamos a cambiar cómo aplicamos nuestras políticas para reducir el tipo de errores que representan la gran mayoría de la censura en nuestras plataformas. Hasta ahora, hemos estado utilizando sistemas automatizados para detectar todas las violaciones de políticas, pero esto ha resultado en demasiados errores y en una censura excesiva de contenido que no debería haber sido considerado. Por lo tanto, seguiremos centrando estos sistemas en abordar violaciones ilegales y de alta gravedad, como el terrorismo, la explotación sexual infantil, las drogas, el fraude y las estafas. Para violaciones de políticas menos graves, dependeremos de que alguien informe un problema antes de tomar cualquier acción. También estamos despriorizando demasiado contenido que nuestros sistemas predicen que podría violar nuestros estándares. Estamos en proceso de eliminar la mayoría de estas despriorizaciones y requerir un mayor grado de confianza para el contenido restante. Además, ajustaremos nuestros sistemas para requerir un grado de confianza mucho más alto antes de que se elimine una pieza de contenido. Como parte de estos cambios, trasladaremos a los equipos de confianza y seguridad que redactan nuestras políticas de contenido y revisan contenido fuera de California, a Texas y otros lugares de EE.UU.

A menudo se brinda a las personas la oportunidad de apelar nuestras decisiones de aplicación y pedirnos que revisemos nuevamente, pero el proceso puede ser frustrantemente lento y no siempre llega al resultado correcto. Hemos agregado personal adicional a este trabajo y, en más casos, ahora también requerimos que múltiples revisores lleguen a una determinación para eliminar algo. Estamos trabajando en formas para hacer que la recuperación de cuentas sea más sencilla y probando tecnología de reconocimiento facial, además de comenzar a utilizar modelos de lenguaje grande (LLMs) de IA para proporcionar una segunda opinión sobre algunos contenidos antes de tomar acciones de aplicación.

Un enfoque personalizado para el contenido político

Desde 2021, hemos realizado cambios para reducir la cantidad de contenido cívico que las personas ven, incluyendo publicaciones sobre elecciones, política o temas sociales, basado en los comentarios de nuestros usuarios que deseaban ver menos de este contenido. Pero este fue un enfoque bastante contundente. Vamos a comenzar a reintroducir esto en Facebook, Instagram y Threads con un enfoque más personalizado, para que las personas que quieran ver más contenido político en sus feeds puedan hacerlo.

Estamos continuamente probando cómo entregamos experiencias personalizadas y recientemente hemos realizado pruebas con respecto al contenido cívico. Como resultado, comenzaremos a tratar el contenido cívico de personas y páginas que sigues en Facebook más como cualquier otro contenido en tu feed, y empezaremos a clasificar y mostrarte ese contenido basado en señales explícitas (por ejemplo, gustar de una publicación) y señales implícitas (como ver publicaciones) que nos ayudan a predecir lo que es significativo para las personas. También vamos a recomendar más contenido político basado en estas señales personalizadas y estamos ampliando las opciones que las personas tienen para controlar cuánto de este contenido ven.

Estos cambios son un intento de volver al compromiso con la libertad de expresión que Mark Zuckerberg expuso en su discurso en Georgetown. Esto significa estar atentos al impacto de nuestras políticas y sistemas en la capacidad de las personas para hacerse oír, y tener la humildad de cambiar nuestro enfoque cuando sabemos que estamos cometiendo errores.

- A word from our sposor -

spot_img