La presencia de ChatGPT se erige como un hito en la inteligencia artificial, permeando diversas industrias y revolucionando la eficiencia laboral. No obstante, en este escenario de avances, se proyecta una amenaza sutil que cobra forma en la oscura proliferación de versiones maliciosas de este extraordinario chatbot. FraudGPT y WormGPT, gemelos malignos de ChatGPT, se alzan como exponentes de la dualidad de la innovación, dando paso a una nueva era de ciberataques sofisticados que ponen en jaque la seguridad digital.

FraudGPT y WormGPT: siniestros clones en la Dark Web.

La plataforma Netenrich ha identificado recientemente la presencia de FraudGPT en la Dark Web, una inteligencia artificial generativa diseñada para la creación de correos electrónicos de phishing y sitios web falsos. Esta avanzada IA se comercializa por alrededor de 200 dólares mensuales a través de canales de Telegram, destacando la creciente sofisticación y disponibilidad de tecnologías maliciosas en el ciberespacio.

WormGPT, derivado del modelo GPT-J, ofrece una funcionalidad similar a un costo más accesible, aproximadamente 60 euros al mes. Aunque menos oneroso, su potencial para la creación de malware, correos electrónicos de phishing y otras actividades maliciosas representa una amenaza significativa para la ciberseguridad.

Ambos clones, FraudGPT y WormGPT, no son versiones legítimas de ChatGPT; por el contrario, son creaciones maliciosas entrenadas con datos relacionados con malware, hacking y phishing. La ausencia de restricciones éticas y legales presentes en el chatbot desarrollado por OpenAI les permite a los usuarios generar contenido sin considerar las posibles consecuencias éticas y legales.

El poder amenazante de FraudGPT y WormGPT.

Estas versiones siniestras de ChatGPT representan un desafío formidable para los expertos en ciberseguridad, poniendo en riesgo la seguridad y privacidad de los usuarios en diversas formas. Las capacidades de FraudGPT y WormGPT son variadas y abarcan desde la generación de correos y mensajes falsos hasta la creación de páginas web fraudulentas y el desarrollo de código malicioso.

FraudGPT y WormGPT son capaces de:

  1. Generar correos y mensajes falsos: Engañar a las víctimas para obtener datos personales, financieros o de acceso mediante correos electrónicos y mensajes de texto falsos, imitando el estilo y tono de personas o entidades reales.
  2. Crear páginas web fraudulentas: Simular sitios oficiales o de confianza para solicitar datos o pagos, con un diseño y contenido convincentes, utilizando dominios similares a los originales.
  3. Escribir código malicioso: Desarrollar código indetectable por antivirus que puede infectar dispositivos, robar información o realizar otras acciones dañinas, oculto en archivos, enlaces o imágenes.
  4. Crear herramientas de hacking: Diseñar herramientas personalizadas para explotar vulnerabilidades de sistemas informáticos, acceder a datos o controlar dispositivos de forma remota, adaptadas según las necesidades del usuario.

La sofisticación de FraudGPT y WormGPT radica en su capacidad para generar textos y contenidos que mimetizan la realidad, desafiando la distinción de sus contrapartes legítimas. Sin embargo, estrategias efectivas para detectarlos incluyen la atención a posibles indicios de falsedad, como errores ortográficos y gramaticales, incongruencias en el formato, falta de coherencia o lógica.

La nueva era de ciberataques con IA: desafíos para empresas y usuarios.

Empresas líderes en ciberseguridad, como Trustwave, Neterich y Hackernoon, reconocen los riesgos que representan FraudGPT y WormGPT. La capacidad de estas herramientas para eludir errores comunes en ataques cibernéticos convencionales presenta un desafío adicional para la detección y prevención. La pérdida de los indicadores tradicionales de fraude, como errores ortográficos, plantea retos significativos para las empresas y los usuarios, quienes ahora enfrentan una amenaza más sofisticada y difícil de identificar.

Según Hackernoon, estos desarrollos son un «recordatorio memorable de cómo los ciberdelincuentes siguen cambiando sus técnicas para lograr el máximo impacto». La inteligencia artificial, que ha revolucionado diversas áreas, ahora se convierte en una herramienta poderosa en manos equivocadas, desafiando constantemente las defensas existentes y generando una nueva ola de preocupaciones en el panorama de la ciberseguridad.

El rol de la inteligencia artificial en la seguridad cibernética.

La integración de la inteligencia artificial en la ciberseguridad ha sido un doble filo. Si bien ha permitido avances significativos en la detección y respuesta a amenazas, también ha creado nuevas herramientas para los ciberdelincuentes. La capacidad de adaptación de modelos como WormGPT, sin límites éticos, plantea preguntas fundamentales sobre la responsabilidad y regulación de estas tecnologías emergentes. Las empresas y organismos gubernamentales enfrentan el desafío de equilibrar la innovación y la seguridad, garantizando que la inteligencia artificial se utilice de manera ética y responsable.

Mitigando los riesgos: recomendaciones de expertos.

Pablo Bobadilla, profesional en seguridad de la información, proporciona recomendaciones fundamentales para mitigar los riesgos asociados con FraudGPT y WormGPT:

  1. Concientización: Campañas de concientización sobre las capacidades de la IA y cómo estas herramientas de fraude pueden afectar a los colaboradores a través de ataques de phishing más sofisticados.
  2. Desconfiar de correos alarmantes: Mantener la alerta ante mensajes que incentiven decisiones apresuradas, ya que podrían ser intentos de phishing.
  3. Sistemas antispam: Implementar sistemas antispam para reducir las posibilidades de infección a través de campañas masivas de malspam por correo electrónico.
  4. Respaldo periódico: Establecer políticas de respaldo periódico fuera de la red organizacional para neutralizar ataques y evitar fraudes.
  5. Actualización de equipos: Mantener actualizados los equipos con las últimas versiones de Windows para aprovechar las mejoras de seguridad.
  6. Seguir normativas internacionales: Adoptar normativas como ISO 27001:2022 para concientizar y capacitar a los usuarios en seguridad de la información.

La aparición de FraudGPT y WormGPT marca un cambio significativo en el panorama de la ciberseguridad, planteando desafíos para empresas y usuarios por igual. La constante evolución de la inteligencia artificial requiere una respuesta proactiva y colaborativa para salvaguardar la seguridad en el ciberespacio.