En el vertiginoso mundo de la tecnología, la inteligencia artificial (IA) revoluciónó diversos campos, pero también abrió la puerta a nuevos desafíos y riesgos.

Una de las tendencias más preocupantes es el uso malicioso de chatbots basados en IA, como ChatGPT, que están siendo aprovechados por ciberdelincuentes para crear 'malware' y campañas de phishing.

Los chatbots creados para el mal

Recientemente apareció FraudGPT, una herramienta de IA generativa que usada por ciberdelincuentes para crear malware y campañas de phishing.

A diferencia de ChatGPT, que fue desarrollado por OpenAI y tiene filtros de seguridad para prevenir abusos, FraudGPT es una versión maliciosa que se vende en la darkweb y canales de Telegram.

Los ciberdelincuentes han encontrado en la IA generativa y los 'chatbots' una oportunidad para aprovechar sus capacidades de programación en la creación de software malicioso.

Aunque los responsables de ChatGPT han implementado filtros de seguridad, investigaciones recientes de Check Point y Forcepoint han demostrado que esta tecnología sigue siendo vulnerable a usos maliciosos.

La IA también se usa para diseñar hackeos más sofisticados

Otra versión maliciosa que surgió es WormGPT, considerado el "primo malvado" de ChatGPT.

Diseñado específicamente para ayudar a los delincuentes, WormGPT carece de los candados de seguridad presentes en otras variantes de chatbots, como ChatGPT, lo que permite que responda a solicitudes maliciosas.

Además, WormGPT fue alimentado con datos relacionados con malware, lo que facilita a los ciberdelincuentes la creación de virus y estrategias para llevar a cabo sus delitos cibernéticos. 

En alerta

El uso de ChatGPT y sus variantes maliciosas plantea graves riesgos para la ciberseguridad.

Muchos usuarios expresaron preocupaciones sobre la posibilidad de que ChatGPT pueda codificar software malicioso capaz de espiar pulsaciones de teclado o crear ransomware

La facilidad para crear correos electrónicos de phishing persuasivos y personalizados con estas herramientas podría conducir a un aumento en las estafas online y a una mayor sofisticación de los ataques cibernéticos.

Aunque OpenAI y otros investigadores han establecido barreras de control para evitar el abuso de ChatGPT, los ciberdelincuentes han demostrado su capacidad para evadir estas restricciones y utilizar estas herramientas para sus propios fines delicitivos.

Te puede interesar