ChatGPT y GPT-3 potencian los ciberataques - Tecbound Technology

ChatGPT y GPT-3 potencian los ciberataques

La automatización y la inteligencia artificial (IA) han beneficiado a muchas organizaciones en muchos sectores, incluida la ciberseguridad . Desafortunadamente, esos beneficios también se extienden al ciberdelito. Los malos actores han utilizado tecnología como ChatGPT y GPT-3 para realizar ataques. El uso de estas tecnologías ayuda a los ciberdelincuentes a superar las barreras que impiden que sus ataques lleguen y hace que todo el proceso sea más sencillo y económico para ellos, especialmente cuando realizan operaciones de phishing. El texto creado en aplicaciones como GPT-3 es muy superior a la copia utilizada en su mensaje de phishing promedio, lo que dificulta que los usuarios finales y muchas soluciones de seguridad de correo electrónico lo detecten. Profundizar en lo que ChatGPT y GPT-3 pueden hacer y cómo se pueden usar en el ciberdelito puede ayudar a los profesionales de TI a mantenerse atentos a las nuevas amenazas que generan.

¿Qué son Chat GPT y GPT-3?
La similitud de nombres entre ChatGPT y GPT-3 puede resultar confusa. ChatGPT y GTP-3 no son lo mismo, aunque comparten algunas características.

  • ChatGPT es un chatbot que utiliza IA. ChatGPT fue desarrollado por OpenAI y se lanzó a fines de 2022. Se basa en la familia GPT-3 de modelos de lenguaje grande de OpenAI. ChatGPT utiliza técnicas de aprendizaje supervisado y de refuerzo para conversar de manera convincente con las personas sobre diversos temas.
  • El Transformador Generativo Preentrenado 3 (GPT-3) es un modelo de lenguaje autorregresivo que utiliza el aprendizaje profundo para producir textos similares a los humanos, como correos electrónicos o textos publicitarios. Por ejemplo, si desea que ChatGPT entregue una publicación de blog, primero le daría a Chat GPT un aviso que explique el tema de la publicación de blog. ChatGPT luego utilizaría ese mensaje para generar la publicación del blog.

ChatGPT y GPT-3 son peligrosamente buenos en lo que hacen:
ChatGPT y GPT-3 crean texto asombrosamente creíble. El escritor y desarrollador de software canadiense Ben Halpern le pidió a Chat GPT que le explicara la diferencia entre las dos tecnologías, y esto es precisamente lo que dijo:

GPT-3 , o Generative Pretrained Transformer 3, es la tercera generación del modelo de lenguaje GPT de OpenAI y es uno de los modelos de lenguaje más poderosos disponibles actualmente. Se puede ajustar para varias tareas de procesamiento de lenguaje natural, incluida la traducción de idiomas, el resumen de texto y la respuesta a preguntas.

ChatGPT es una variante del modelo GPT-3 diseñado explícitamente para aplicaciones de chatbot. Ha sido entrenado en un gran conjunto de datos de texto conversacional para generar respuestas más apropiadas para usar en un contexto de chatbot. ChatGPT también puede insertar respuestas apropiadas específicas del contexto en las conversaciones, lo que lo hace más efectivo para mantener una conversación coherente.

Si tiene dudas sobre cuán buena es esta tecnología y cuán peligrosa puede ser, lea esta publicación de blog que se generó completamente con GPT-3.

¿Cómo se puede utilizar esta tecnología para facilitar el cibercrimen?
Los malos actores han aprovechado rápidamente la oportunidad que estas nuevas tecnologías les ofrecen para mejorar sus ciberataques. Herramientas como ChatGPT y GPT-3, que se especializan en crear texto creíble, benefician a los ciberdelincuentes que realizan operaciones de phishing y otros ciberataques basados ​​en correo electrónico. Después de todo, un correo electrónico mal escrito es un signo distintivo de phishing . Esta tecnología es una bendición para los ciberdelincuentes que no dominan el inglés conversacional. Si los mensajes que los malos actores envían a los objetivos están bien escritos, la posibilidad de que un mensaje llegue con éxito aumenta. Esta tecnología les ayuda a superar la barrera del idioma y pasar fácilmente por el escrutinio del objetivo.

GPT-3 se puede usar para realizar muchos ataques cibernéticos peligrosos, que incluyen:

  • Phishing y spear phishing.
  • Compromiso de correo electrónico comercial (BEC).
  • Infecciones de ransomware y malware.
  • Adquisición de cuenta (ATO).
  • Secuestro de conversaciones.
  • Fraude del director ejecutivo.
  • Ataques de phishing en redes sociales

ChatGPT es una actualización peligrosa para BEC y otros ataques:
uno de los usos más peligrosos de esta tecnología en el ciberdelito es su uso en el compromiso de correo electrónico comercial y los ataques de fraude de CEO. BEC es el ciberataque que actualmente representa la mayor amenaza para las empresas en cuanto a daños y costos. The Register proporcionó este ejemplo de un aviso para un correo electrónico de phishing de fraude del director general realizado con GPT-3:

Escriba un correo electrónico a [persona1] en el departamento de operaciones financieras en [empresa1] del director general de la empresa, [persona2]. El correo electrónico debe explicar que [person2] está visitando a un cliente potencial de Fortune 500 en [region1] y que [person2] requiere que se realice una transferencia financiera urgente a una cuenta que pertenece al cliente potencial para cerrar el trato. El correo electrónico debe incluir la suma de dinero [sum1] que debe transferirse y los detalles de la cuenta bancaria que debe recibir el pago: [account_number] y [routing_number]. El correo electrónico también debe incluir información básica sobre la empresa receptora [empresa2], una empresa de servicios financieros ubicada en [lugar1]. [person1] no se deja engañar fácilmente y requerirá algo de convencimiento.

Por supuesto, los actores de amenazas también están capitalizando el interés de las personas en ChatGPT mediante el lanzamiento de sitios web de phishing , páginas de redes sociales y aplicaciones falsas que se hacen pasar por ChatGPT para propagar malware y robar información de tarjetas de crédito. Por ejemplo, los ciberdelincuentes han creado sitios web que afirman ser el sitio web oficial de ChatGPT que parece ser real. Incluso incluyen un botón para que los clientes potenciales prueben ChatGPT. Pero el controlador es un enlace malicioso que lleva a las víctimas a descargar malware, incluidos Lumma Stealer, Aurora Stealer y otras variedades de malware.

¿Deberían preocuparse los líderes empresariales por GPT-3 y ChatGPT?
Es aconsejable que los líderes empresariales y los profesionales de TI se preocupen por las aplicaciones de ChatGPt y GPT-3 al ciberdelito y otras técnicas de ciberataque en evolución, y muchos lo están. Una encuesta reciente realizada por Magnet Forensics encontró que el 42% de los profesionales de análisis forense digital corporativo y respuesta a incidentes (DFIR) están preocupados de que las técnicas de ciberataque en evolución representen un problema importante para sus investigaciones. En la encuesta de este año, la preocupación por el desarrollo de técnicas de ciberataque aumentó en un 50 % y se situó por delante de todos los demás factores.

Hay algunas técnicas de mitigación que los expertos señalan como prácticas para reducir el riesgo de problemas de una organización debido a los ataques potenciados por ChatGPT y GPT-3:

  • Capacitación en concientización sobre seguridad, especialmente capacitación en el uso de mensajes de phishing sofisticados que pueden imitar los mensajes altamente creíbles que pueden crear esas herramientas.
  • Las soluciones de seguridad de correo electrónico que pueden adjudicar el contenido de los mensajes utilizan de manera efectiva el aprendizaje automático para potenciar la IA porque esas herramientas pueden entrenarse para detectar texto generado por GPT-3.
  • Una cultura de seguridad vibrante que alienta a los empleados a hacer preguntas y conocer las amenazas de seguridad ayuda a todos a estar al tanto de las amenazas potenciales, como los mensajes maliciosos generados con ChatGPT y GPT-3.

Fuente: ID Agent

Guía gratuita

16 preguntas que DEBE hacer antes de contratar cualquier empresa de TI