Capa base Patagonia Merino Air
Jun 09, 2023Reportero del Herald Times
Jun 10, 2023Los 39 mejores regalos para artesanos para las fiestas de 2022: kits de manualidades y bricolaje
Jun 11, 2023Los robots vienen para los trabajadores de la confección. Eso es bueno para Estados Unidos, malo para los países pobres
Jun 12, 2023Llenar la brecha de automatización en la fabricación de prendas de vestir
Jun 13, 2023Investigador construye anti
Will Knight, wired.com - 30 de agosto de 2023 1:51 p. m. UTC
En mayo, Sputnik International, un medio de comunicación estatal ruso, publicó una serie de tuits criticando la política exterior de Estados Unidos y atacando a la administración Biden. Cada uno de ellos provocó una refutación breve pero bien elaborada de una cuenta llamada CounterCloud, que a veces incluía un enlace a una noticia relevante o un artículo de opinión. Generó respuestas similares a los tuits de la embajada rusa y de los medios de comunicación chinos que criticaban a Estados Unidos.
Las críticas rusas a Estados Unidos están lejos de ser inusuales, pero el material de CounterCloud lo fue: los tweets, los artículos e incluso los periodistas y sitios de noticias fueron creados enteramente por algoritmos de inteligencia artificial, según la persona detrás del proyecto, que se hace llamar llama Nea Paw y dice que está diseñado para resaltar el peligro de la desinformación de IA producida en masa. Paw no publicó públicamente los tweets y artículos de CounterCloud, pero los proporcionó a WIRED y también produjo un video que describe el proyecto.
Paw afirma ser un profesional de la ciberseguridad que prefiere el anonimato porque algunas personas pueden creer que el proyecto es irresponsable. La campaña CounterCloud que rechaza la mensajería rusa se creó utilizando la tecnología de generación de texto de OpenAI, como la que está detrás de ChatGPT, y otras herramientas de inteligencia artificial de fácil acceso para generar fotografías e ilustraciones, dice Paw, por un costo total de alrededor de $400.
"No creo que exista una solución mágica para esto, de la misma manera que no existe una solución mágica para los ataques de phishing, spam o ingeniería social", dice Paw en un correo electrónico. Son posibles mitigaciones, como educar a los usuarios para que estén atentos al contenido manipulador generado por IA, hacer que los sistemas de IA generativa intenten bloquear el uso indebido o equipar los navegadores con herramientas de detección de IA. "Pero creo que ninguna de estas cosas es realmente elegante, barata o particularmente efectiva", dice Paw.
En los últimos años, los investigadores de desinformación han advertido que los modelos de lenguaje de IA podrían usarse para elaborar campañas de propaganda altamente personalizadas y para impulsar cuentas de redes sociales que interactúan con los usuarios de maneras sofisticadas.
Renee DiResta, gerente de investigación técnica del Observatorio de Internet de Stanford, que rastrea campañas de información, dice que los artículos y perfiles de periodistas generados como parte del proyecto CounterCloud son bastante convincentes.
"Además de los actores gubernamentales, las agencias de gestión de redes sociales y los mercenarios que ofrecen servicios de operaciones de influencia sin duda tomarán estas herramientas y las incorporarán a sus flujos de trabajo", dice DiResta. Lograr que el contenido falso se distribuya y comparta ampliamente es un desafío, pero esto se puede lograr pagando a usuarios influyentes para que lo compartan, agrega.
Ya ha surgido cierta evidencia de campañas de desinformación en línea impulsadas por IA. Investigadores académicos descubrieron recientemente una burda botnet que impulsa criptomonedas aparentemente impulsada por ChatGPT. El equipo dijo que el descubrimiento sugiere que la IA detrás del chatbot probablemente ya se esté utilizando para campañas de información más sofisticadas.
Las campañas políticas legítimas también han recurrido al uso de la IA antes de las elecciones presidenciales estadounidenses de 2024. En abril, el Comité Nacional Republicano produjo un vídeo atacando a Joe Biden que incluía imágenes falsas generadas por IA. Y en junio, una cuenta de redes sociales asociada con Ron Desantis incluyó imágenes generadas por inteligencia artificial en un video destinado a desacreditar a Donald Trump. La Comisión Federal Electoral ha dicho que puede limitar el uso de deepfakes en anuncios políticos.
Micah Musser, un investigador que ha estudiado el potencial de desinformación de los modelos de lenguaje de IA, espera que las principales campañas políticas intenten utilizar modelos de lenguaje para generar contenido promocional, correos electrónicos para recaudar fondos o anuncios de ataque. "Estamos en un período totalmente inestable en el que no está muy claro cuáles son las normas", afirma.
Gran parte del texto generado por IA sigue siendo bastante genérico y fácil de detectar, afirma Musser. Pero hacer que los humanos refinen el contenido generado por IA que promueve la desinformación podría ser muy efectivo y casi imposible dejar de usar filtros automatizados, dice.
El director ejecutivo de OpenAI, Sam Altman, dijo en un tuit el mes pasado que le preocupa que la inteligencia artificial de su empresa pueda utilizarse para crear desinformación automatizada y personalizada a escala masiva.
Cuando OpenAI puso a disposición por primera vez su tecnología de generación de texto a través de una API, prohibió cualquier uso político. Sin embargo, en marzo de este año, la compañía actualizó su política para prohibir el uso destinado a producir mensajes en masa para grupos demográficos particulares. Un artículo reciente del Washington Post sugiere que GPT no bloquea por sí solo la generación de dicho material.
Kim Malfacini, jefe de política de productos de OpenAI, dice que la compañía está explorando cómo se utiliza su tecnología de generación de texto con fines políticos. La gente todavía no está acostumbrada a asumir que el contenido que ven puede haber sido generado por IA, afirma. "Es probable que el uso de herramientas de IA en un gran número de industrias siga creciendo y la sociedad se adapte a eso", afirma Malfacini. "Pero por el momento creo que la gente todavía está en el proceso de actualización".
Dado que hoy en día hay una gran cantidad de herramientas de IA similares disponibles, incluidos modelos de código abierto que pueden desarrollarse con pocas restricciones, los votantes deberían acostumbrarse al uso de la IA en la política lo antes posible.
Esta historia apareció originalmente en wired.com.