¿Puede ChatGPT convertirse en una amenaza a nuestra ciberseguridad?

La última versión de inteligencia artificial de ChatGPT, GPT-4, fue anunciada la semana pasada, una versión que destaca por ser más rápida, precisa y humana. Se trata de un gran avance para esta tecnología que sorprendió a todo el mundo a finales del pasado año gracias a su capacidad de mantener una conversación, además de ser capaz de contestar a preguntas de igual forma que lo haría una persona. Parte de su éxito radica en la calidad de las respuesta que ofrece, que hace que muchas veces sea complicado detectar si se trata de un humano o de este chatbot de inteligencia artificial. El problema, es que su uso no ha pasado desapercibido por los ciberdelincuentes, que ven en él una poderosa herramienta para llevar a cabo su acciones.

Correos electrónicos de phishing escritos por IA

Como suele ocurrir cuando hay un nuevo desarrollo de la tecnología, los atacantes buscan rápidamente la forma de aprovecharse de ello. Con la introducción de ChatGPT, una de las principales preocupaciones estaba en su uso para ataques de phishing.

Ahora mismo, con sus capacidades actuales, esta preocupación es una exageración”, aclara Ryan Kalember, vicepresidente ejecutivo de estrategia de ciberseguridad de Proofpoint. “Muchos correos electrónicos de ingeniería social no están diseñados para ser perfectos, sino que están deliberadamente mal escritos para que sea más probable que la gente los abra. Además, esto solo es una parte del ataque, ya que su éxito no depende únicamente de esto”.

Un chatbot de este tipo sólo podría ayudar a crear un asunto o cuerpo de texto convincente; aun así, cualquier sistema de detección antiphishing está preparado para analizar tanto el mensaje de un email como sus archivos adjuntos y enlaces. Incluso en casos en los que la víctima abriese el correo, hay mucha más información a la que el ciberdelincuente necesita acceder. Por lo tanto, el uso de ChatGPT no marcaría una gran diferencia.

Malware cifrado por un chatbot

“El malware escrito por ChatGPT no evade sistemas EDR (Endpoint Detection Response) de protección de equipos o infraestructuras, ni infecta una máquina de forma más eficaz que otras herramientas ya existentes. Un hacker necesita algo que funcione una y otra vez; y esta tecnología no puede rotar constantemente su infraestructura, dominios y elementos para evitar ser captada por expertos en ciberseguridad”, comenta Kalember.

Un operador de malware no solo tiene que distribuirlo, sino que también tiene que vender el acceso al mismo. Un chatbotno puede automatizar ese trabajo, porque no está creado con ese fin. Para tener un impacto real en este ámbito, ChatGPT tendría que evolucionar hasta superar a las herramientas existentes que sí han sido desarrolladas durante años para ello. Aunque avanza muy rápido, de momento no es útil para cifrar o distribuir malware de manera exitosa.

“Dado que ChatGPT es gratuito y fácilmente accesible, no es raro que haya llamado la atención de ciberdelincuentes, pero su importancia es cuestionable. En el futuro, los atacantes podrían utilizar este sistema de chat para mejorar la gramática o llevar a cabo ataques de ingeniería social en los que haya una conversación prolongada con la víctima, pero esto no les daría ninguna ventaja frente a los sistemas de detección de ciberataques. ChatGPT no sustituye ni mejora considerablemente las herramientas desarrolladas hasta ahora, ni cambia la naturaleza de los ataques”,concluye el experto.

Scroll al inicio