OpenAI publicó un informe en el que detalla cómo actores maliciosos han intentado aprovechar ChatGPT para actividades ilícitas, campañas de desinformación y fraudes en distintos continentes. La empresa informó que detectó y bloqueó cuentas vinculadas a operaciones de influencia, estafas románticas y suplantaciones de identidad, resaltando la necesidad de reforzar los controles sobre el uso de la inteligencia artificial.
El informe destaca que algunas cuentas relacionadas con la policía china y otros individuos intentaron usar ChatGPT para manipulación política, incluyendo un caso dirigido contra la primera ministra japonesa, Sanae Takaichi, en represalia por críticas a la situación de derechos humanos en Mongolia. Las operaciones incluyeron la creación de correos electrónicos falsos, suplantación de identidad y uso de software de intercambio de rostros.
Te puede interesar: Gemini de Google permite automatizar apps y ejecutar tareas complejas por el usuario
En Asia, estafadores emplearon ChatGPT para crear perfiles falsos y material promocional de servicios de citas fraudulentos, engañando a las víctimas mediante interacciones románticas y sexuales que derivaban en pagos crecientes a través de transferencias bancarias o monederos digitales.
Otro uso indebido involucró la suplantación de bufetes de abogados y fuerzas del orden estadounidenses, generando tarjetas de membresía falsas y contenido en redes sociales para dar credibilidad a los fraudes.
OpenAI destacó que, aunque el modelo se negó a colaborar en operaciones encubiertas, los actores maliciosos insistieron en emplearlo para perfeccionar informes y campañas, evidenciando la persistencia de estas prácticas. La empresa concluye que la manipulación digital transnacional se ha industrializado y enfatiza la importancia de monitorear y restringir el uso indebido de sus modelos para prevenir fraudes, desinformación y suplantaciones de identidad.











