¿Facebook y Twitter deberían revisar tus publicaciones antes de que salgan a la luz?

Todas sus publicaciones en Facebook, Twitter y otras plataformas sociales podrían ser examinadas instantáneamente por un filtro de inteligencia artificial que elimina el discurso de odio y la información Falsa y que en algunos casos despues podría pasar por un supervisor humano. Tal es la recomendación de Usama Fayyad, directora ejecutiva del Instituto de Inteligencia Artificial Experiencial de Northeastern, en respuesta al deseo cada vez más urgente de supervisar las redes sociales.

Fayyad cree que los filtros de redes sociales son necesarios porque las plataformas han crecido y escalado más rápido de lo que pueden ser reguladas, con el resultado de que ahora se acusa a los canales sociales de permitir el discurso de odio y la información errónea que contribuye a la violencia, incluido el ataque del 6 de enero contra el Capitolio de Estados Unidos.

“Las redes sociales deben superar algún obstáculo, principalmente algorítmico y automatizado, pero correctamente aumentado con la intervención humana adecuada”, dice Fayyad, líder en inteligencia artificial durante tres décadas que fundó Open Insights, Yahoo! Laboratorios de investigación, Minería de datos en Microsoft y el grupo de Sistemas de aprendizaje automático en el Laboratorio de propulsión a chorro de la NASA. “El problema de la desinformación es difícil pero no imposible.

“Sabemos que algunas cosas encajan en esta zona de incertidumbre en la que todavía necesitamos el juicio humano”, dice. “Con un ciclo de retroalimentación relevante que aprovecha adecuadamente el juicio humano, cuanto más tratamos estos problemas a través de la intervención humana, más aprende el sistema Y cuanto más inteligente se vuelve la tecnología “.

Facebook ha estado desarrollando herramientas de inteligencia artificial para erradicar la “mala actividad”, dijo Mark Zuckerberg, director ejecutivo del gigante de las redes sociales, en un testimonio ante el Congreso ya en 2018. Pero lo harán los canales sociales más grandes, incluidos Facebook, Twitter e Instagram. ¿Comprometerse con cambios integrales para acabar con el discurso de odio?

Fayyad propone una red social equivalente a la demora de siete segundos que usan las redes de televisión cuando cubren deportes y otros eventos en vivo. Si un artista usa malas palabras, la demora permite a los censores silenciar el lenguaje soez antes de que pueda transmitirse a los hogares.

“Las empresas de redes sociales han logrado su misión de transformar la forma en que nos comunicamos”, dice Fayyad. “Tenemos que recordar que todas estas empresas son bastante nuevas y que no hemos tenido tiempo para pensar en los problemas como sociedad.

“Este es un entorno en el que algo como las redes sociales puede surgir y en dos o tres años volverse omnipresente”, dice Fayyad. “No hemos visto eso en la historia de la humanidad antes. Necesitamos una nueva forma de pensar en torno a la regulación y lo que significa y con qué rapidez evolucionarla”.

Los esfuerzos nacientes de las plataformas para desarrollar filtros son prometedores, dice Christo Wilson, profesor asociado de ciencias de la computación en Northeastern. Hay varias formas de filtrar el mal comportamiento: Reddit recuerda a los usuarios que son responsables de las pautas de la comunidad, señala Wilson, lo que reduce los conflictos, el discurso de odio y la desinformación.

Wilson agrega que las grandes empresas de redes sociales han demostrado su capacidad para detectar las violaciones de derechos de autor y la propaganda terrorista.

“Las plataformas son bastante buenas para captar esas cosas, porque tienen incentivos muy fuertes para hacerlo”, dice Wilson, quien también dirige el programa de licenciatura en ciberseguridad de Northeastern. “Así que no es que no puedan moderar el contenido”.

Los profesores del Noreste dicen que el objetivo de limitar a los malos actores requerirá un mínimo de tres pasos: Regulación gubernamental, Desarrollo de inteligencia artificial e incluir a las personas en el bucle.