La inteligencia artificial puso en jaque la ciberseguridad de millones de personas y organizaciones que comenzaron a interactuar con esta tecnología en el último año, gracias a su creciente vorágine en casi todos los ámbitos de la vida cotidiana.

Entre las herramientas que emergieron de este sector, la que más rápido se popularizó fue ChatGPT, el chatbot desarrollado por la empresa OpenAI, utilizado para facilitar tareas de todo tipo e incluso traducir textos otros idiomas en cuestión de segundos.

Sin embargo, la neutralidad y falta de un control directo que pueda hacerse sobre esta y muchas otras IA provoca que los ciberdelincuentes ya las utilicen para vulnerar todo tipo de sistemas.

Desde su apertura al público el pasado año, Check Point Software Technologies, proveedor de soluciones de ciberseguridad global, detectó numerosos ejemplos de cómo los ciberdelincuentes emplearon la inteligencia artificial para acelerar y mejorar sus campañas y herramientas de ciberataques

ChatGPT: 6 ataques empleados por ciberdelincuentes mediante la inteligencia artificial

Ante esta situación, la empresa logró sintetizar seis peligros principales y malos usos de la inteligencia artificial generativa en el ámbito de la ciberseguridad:

Distribución de malware

Los ciberdelincuentes generan elementos como virus o troyanos a través de estas herramientas, con el fin de engañar a los usuarios y dirigirlos a sitios con dominios similares a los de ChatGPT y otros servicios.

ChatGPT es utilizado crecientemente por ciberdelincuentes para implementar todo tipo de ataques

Estos códigos maliciosos depurados son incrustados en documentos, correos electrónicos e incluso páginas web para maximizar el alcance de sus ataques e infectar los ordenadores de sus víctimas.

Phishing

Gracias a su sistema de creación de lenguaje automático, la IA permite crear unas comunicaciones falsas mucho más realistas y convincentes que las maniobras de phishing tradicionales. Ell genera entre los usuarios que la tarea de distinguir los verdaderos correos de los falsos sea aún más complicado.

El objetivo de estos es engañar a los usuarios para hacer que se sientan seguros y proporcionen información sensible como contraseñas o datos de pago como tarjetas de crédito.

Ingeniería social

Diseñada para ser lo más humano posible, ChatGPT puede ser utilizado para hacerse pasar por personas reales con el fin de manipular a los usuarios para que realicen acciones perjudiciales para su persona o para sus empresas.

Básicamente, los piratas informáticos buscan engañar a un usuario mediante llamados telefónicos, mensajes de texto, WhatsApp, redes sociales (Twitter y Facebook) o envíos de mails en los cuales los convencen de realizar alguna acción que termina con transferencias no recuperables al estafador o incluso con el ingreso de este a la cuenta

Filtración y robo de datos

La IA generativa puede ser utilizada para crear documentos o correos electrónicos falsos que parezcan legítimos, lo que puede ser utilizado para engañar a los usuarios y hacer que revelen sus credenciales o datos sensibles.

ChatGPT puede ser utilizado para hacerse pasar por personas reales con el fin de manipular a los usuarios

Desinformación y propaganda

ChatGPT puede ser empleado para generar noticias falsas y propaganda que pueden ser utilizadas para engañar y manipular a las personas.

Estas acciones pueden generar daños en las reputaciones, sembrar discordia e, incluso, incitar a la violencia entre más de una persona.

Difamación y suplantación

Con herramientas de este estilo, cada vez más accesibles y asequibles, existe una creciente preocupación de que la distinción entre archivos auténticos y deep fakes sea prácticamente imposible, capaces de crear fotografías, vídeos e incluso audios falsos.

Inteligencia artificial: cómo resguardarse de los ciberdelitos

Desd Check Point resaltaron que, para contrarrestar los peligros que la inteligencia artificial plantea en el ámbito de la ciberseguridad, se requiere un enfoque holístico que combine la tecnología avanzada, la educación de los usuarios, la regulación efectiva y la colaboración continua entre expertos.

"Para mitigar los riesgos de la inteligencia artificial en ciberseguridad, es esencial implementar medidas de detección avanzadas que identifiquen la actividad maliciosa antes de que ocurran los ataques. Es necesario que se establezcan unas regulaciones y estándares para garantizar un uso ético de la IA, promoviendo la transparencia y responsabilidad en su desarrollo y aplicación", sintetizaron.

Te puede interesar