Las 11 formas en que los piratas informáticos pueden aprovechar el ChatGPT

El ChatGPT es uno de los chatbots de Inteligencia Artificial más avanzados del momento. Pero aunque su uso podría incrementar la productividad de diversas industrias en el mundo, todavía no es lo suficientemente seguro. Unos investigadores probaron al ChatGPT y encontraron al menos 11 formas en las que los delincuentes y otros actores maliciosos pueden usar esta tecnología con éxito. Los peligros que representa el ChatGPT derivan de su potencial para generar “texto malicioso”, indica el estudio Beyond the Safeguards: Exploring the security risks of ChatGPT.

Los 11 peligros del ChatGPT

Campañas de phishing . Este método de fraude ya existe, pero puede magnificarse con el uso del ChatGPT. Los Investigadores le pidieron al chatbot la generación de un texto que pudiera enviarse por correo electrónico y que fuera capaz de recabar información sensible de los usuarios e incluso hacerlos instalar un malware. El ChatGPT logró generar un texto convincente. Desinformación. Los investigadores también advierten que los actores maliciosos pueden usar el chatbot para generar artículos de noticias falsas, posteos en redes sociales con desinformación capaz de volverse viral, entre otras formas de desinformación. Spam. El CharGPT también fue capaz de generar textos con potencial de convertirse en mensajes de Spam. Suplantación de identidad. Dado que el ChatGPT tiene una alta capacidad para imitar la escritura y el estilo de otras personas, también puede suplantar su identidad y ser capaz de causar daños a las relaciones interpersonales y profesionales. Rápida capacidad de generación de código. Los ciberdelincuentes encontrarán formas más rápidas para crear amenazas nuevas. De hecho, se registran ya casos de hackers maliciosos probando las capacidades del ChatGPT en foros de la darkweb.

Código impenetrable : Los ciberdelincuentes también pueden usar el ChatGPT para crear código impenetrable para analistas de seguridad. Script Kiddies : Reducción de barreras para la entrada de ciberdelincuentes novatos. Lo cual les permitiría crear código malicioso sin conocimientos técnicos profundos. Evasión de detección : También puede ayudar a que el código generado por piratas informáticos sea indetectable para antivirus tradicionales. Protección de datos personales: Aun existe riesgo de que los usuarios revelen información sensible y que esta sea compartida sin su autorización. Información confidencial : Los atacantes podrían tratar de forzar al ChatGPT a recuperar información confidencial introducida como parte de los datos de entrenamiento de la propia inteligencia artificial. Vida privada de personas públicas : El chatbot puede ser usado para generar rumores o contenido dañino sobre la vida privada de figuras públicas. Así, los autores del estudio resaltaron la necesidad de seguir con la investigación, desarrollo y colaboración entre la industria, los profesionales y los legisladores, para abordar estos desafíos y los que vendrán en el futuro.

]]>

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *