Los riesgos de ChatGPT: advierten que puede ser usada para el “phishing”
La compañía de seguridad Prosegur indicó que la herramienta de inteligencia artificial tiene el potencial de ser utilizada para la difusión de mensajes de odio y fraudes por internet.
La herramienta de inteligencia artificial ha revolucionado la tecnología. ChatGPT ha comenzado su masificación trayendo ventajas como la automatización de tareas rutinarias o la creación de “chatbots” amigables. Sin embargo, expertos observan potenciales riesgos en su uso. Tanto la difusión de mensajes de odio y la realización de fraudes por internet como el “phishing“, son dos de las principales preocupaciones de la compañía de seguridad Prosegur.
Según un estudio elaborado por la empresa, la polarización social es una de las principales amenazas de la aplicación ya que debido a la capacidad de su inteligencia artificial para generar productos multimedia, estas pueden ser utilizadas para difundir mensajes de odio o discriminación, así como mensajes de carácter radical o extremista.
En el caso del “phising“, práctica que involucra la creación automática de mensajes que parecen reales, pero son hechos con la intención de engañar a los usuarios y así acceder a información personal. Según Prosegur la herramienta de ChatGPT cuenta con una escritura de alta calidad lo que no levanta sospechas.
La generación de noticias falsas es otro de los problemas que detecta la compañía lo que perjudicaría “la cohesión social y los principios democráticos”.
Prosegur también detecta el uso de la tecnología para la realización de “deep fakes“, es decir, suplantaciones de identidad. La inteligencia artificial permitiría la generación de textos, imágenes, videos y la simulación de voces para fines maliciosos.