Actualidad
WEF impulsa IA para combatir desinformación con censura
19 de junio de 2024 | 6:00 pm
El Foro Económico Mundial (WEF) ha decidido utilizar la inteligencia artificial (IA) como herramienta para combatir la desinformación
El Foro Económico Mundial (WEF) sigue impulsando el uso de la inteligencia artificial (IA) para combatir la «desinformación», a la vez que advierte sobre los peligros de la IA en la creación de esa misma desinformación. La paradoja es clara:, quieren controlar la IA para censurar con la misma herramienta que, según ellos, genera desinformación.
En un informe reciente del WEF, Cathy Li, jefa de IA, Datos y Metaverso, y Agustina Callegari, líder del Proyecto de la Coalición Global para la Seguridad Digital, instan a los responsables políticos, empresas tecnológicas, investigadores y grupos de derechos civiles a colaborar en el desarrollo de sistemas avanzados de IA para combatir la desinformación y la información errónea.
Propuestas y técnicas avanzadas de IA
Proponen técnicas basadas en el análisis de patrones, lenguaje y contexto para mejorar la moderación del contenido. Según los autores, la IA está en un nivel que permite entender casi perfectamente los matices entre la desinformación intencional y la información errónea no intencional.
La proliferación de la inteligencia artificial en la era digital ha dado lugar a innovaciones notables y desafíos únicos, particularmente en la integridad de la información. Las tecnologías de IA, con su capacidad para generar textos, imágenes, audio y vídeos falsos y convincentes, presentan dificultades importantes para distinguir el contenido auténtico del sintético.
La IA como herramienta de doble filo
Esta capacidad permite a los malhechores automatizar y ampliar las campañas de desinformación, aumentando su alcance e impacto. Sin embargo, la IA también desempeña un papel crucial en la lucha contra la desinformación. Los sistemas avanzados impulsados por IA pueden analizar patrones, uso del lenguaje y contexto para ayudar en la moderación del contenido, la verificación de hechos y la detección de información falsa.
Coste social de la desinformación
Las consecuencias de la desinformación no controlada impulsada por la IA son profundas y pueden erosionar el tejido mismo de la sociedad. El Informe de Riesgos Globales 2024 del WEF identifica la desinformación como una amenaza grave en los próximos años, destacando el posible aumento de la propaganda y la censura internas.
Riesgos políticos y sociales
El uso político indebido de la IA plantea graves riesgos, ya que la rápida difusión de deepfakes y contenido generado por IA hace cada vez más difícil para los votantes discernir la verdad de la falsedad. Esto puede influir en el comportamiento de los votantes y socavar el proceso democrático. Las elecciones pueden verse afectadas, la confianza pública en las instituciones puede disminuir y el malestar social puede aumentar, incluso desencadenando violencia.
Campañas de desinformación específicas
Además, las campañas de desinformación pueden dirigirse a grupos demográficos específicos con contenido dañino generado por IA. La desinformación de género, por ejemplo, perpetúa los estereotipos y la misoginia, marginando aún más a los grupos vulnerables. Estas campañas manipulan la percepción pública, provocando daños sociales generalizados y profundizando las divisiones sociales existentes.
Enfoque múltiple para abordar la desinformación
El rápido desarrollo de las tecnologías de IA a menudo supera la supervisión gubernamental, lo que genera posibles daños sociales si no se gestiona con cuidado. Iniciativas de la industria como la autenticidad del contenido y las marcas de agua abordan preocupaciones clave sobre la desinformación y la propiedad del contenido.
Iniciativas y colaboraciones para la autenticidad
La Coalición para la Procedencia y Autenticidad del Contenido (C2PA), integrada por Adobe, Arm, Intel, Microsoft y TruePic, aborda la prevalencia de información engañosa en línea mediante el desarrollo de estándares técnicos para certificar la fuente y el historial del contenido multimedia.
Para mitigar los riesgos asociados con la IA, los desarrolladores y las organizaciones deben implementar salvaguardias sólidas, medidas de transparencia y marcos de responsabilidad. A medida que la IA continúa transformando nuestro mundo, es imperativo avanzar en nuestro enfoque hacia la seguridad digital y la integridad de la información.
Más noticias
Lalachus y David Broncano presentarán las Campanadas 2025 en RTVE
14 de diciembre de 2024 | 11:17 am
Humor, polémicas y empoderamiento en la previa al fin de año RTVE ha confirmado que David Broncano y Lalachus serán los encargados de despedir el …
Seguir leyendo «Lalachus y David Broncano presentarán las Campanadas 2025 en RTVE»
- GLS Spain destaca por su eficiencia y atención en el transporte de paquetes
- El Raval es el barrio más peligroso de España según un informe criminológico
- Trump reafirma su compromiso con las criptomonedas en su nueva administración
- La infanta Sofía bajo rendimiento académico en su colegio de Gales por fiestera
- Rebeldes toman Damasco y declaran la ciudad «libre del tirano» Bashar al Assad
- Bitcoin rompe la barrera de los $100,000 impulsado por la presidencia de Trump
- Corea del Sur entre la ley marcial y la sombra de un autogolpe
- Bitcoin caída a $89000 y seguido máximos históricos $124.000 en enero
- Última oportunidad de compra de Bitcoin en $85000 objetivo $120.000
- Israel y Líbano firman un alto el fuego: los puntos clave del acuerdo
- Trump lidera el camino para convertir a Estados Unidos en la capital de las criptomonedas
- Bitcoin en la Onda 5 precios explosivos hasta $170.000
- El Rey Emérito bajo investigación: ilustres denuncian irregularidades en su regularización fiscal
- Pablo Motos y Jorge Martín: la presión detrás de su decisión sobre la Revuelta
- Microsoft Teams cambia el juego: traducción en tiempo real para todos
- «Al menos salvémonos nosotros» la reflexión de Viktor Orbán que da qué pensar