Cargando...

IA

Por qué no debes fiarte de ChatGPT: los peligros y malos usos de la Inteligencia Artificial

La IA ha supuesto una total revolución a la tecnología, pero estos modelos también se pueden utilizar para usos maliciosos

Así están utilizando los hackers ChatGPT para escribir malware. Check Point Research.

La inteligencia artificial ha supuesto una total revolución a la tecnología, tal y como la conocemos. El impacto de la IA ha sido tan fuerte que incluso se habla de que, en algunos años, podría sustituir muchos de los trabajos que se desempeñan. Quizás, a día de hoy, es difícil ver como una gran cantidad de trabajadores son sustituidos por robots, pero se han hecho varias pruebas que comprometen el futuro de las personas. ChatGPT, un modelo de lenguaje desarrollado por OpenAI, es una de las principales consecuencias de este auge tecnológico. Sin embargo, su uso indebido podría provocar graves efectos.

Este sistema de chat con inteligencia artificial nos ha sorprendido a todos. Es un modelo con más de 175 millones de parámetros, y sus algoritmos deberían ser capaces de entender lo que le estás preguntando con precisión. ChatGPT está entrenado para mantener conversaciones, de manera que solo tienes que hacerle preguntas y, después, las procesará y entenderá para darte una respuesta profunda y muy acertada.

Alternativas a ChatGPT

El chatbot de OpenAI es de libre utilización, pero tiene el problema de que puede saturarse cuando hay mucha demanda, con la única solución de volver a intentarlo más tarde. No obstante, muchos optan por alternativas, que cuentan con los mismos peligros. Por ejemplo, encontramos a Perplexity AI, que no crea un texto como ChatGPT, pero sí nos permite encontrar la información de forma más rápida y precisa. Por otro lado, podemos utilizar Jasper Chat, YouChat o ChatSonic, entre otras.

Estos son los peligros de usar ChatGPT

Sin duda, es un fenómeno tan potente que podría acabar con Google o buscadores similares, aunque todavía es pronto para hablar de ello. Pero este chatbot no es 100% fiable y cuenta con algunas limitaciones, o pequeñas diferencias que suponen un peligro para la información.

Julio Gonzalo, vicerrector de investigación de la UNED, explicó en su cuenta de Twitter que ChatGPT "produce una ilusión de pensamiento racional irresistible". "No deja de ser un modelo de lenguaje que no razona ni dispone de conocimiento fiable".

ChatGPT produce una ilusión de pensamiento racional irresistible. Pero no deja de ser un modelo de lenguaje que *no razona* ni dispone de *conocimiento fiable* sobre el mundo. Aquí un ejemplo de cómo se deja llevar por el interlocutor y empieza a desbarrar. pic.twitter.com/jITyRA3sz7

— Julio Gonzalo (@JulioGonzalo1) December 3, 2022 " src="images/play_twitter.jpg">< p>

Uno de los principales riesgos es generar contenido engañoso o falso, crear contenido ofensivo o acosador e incluso mensajes de odio o difamatorio contra una persona o grupo. Puede ser difícil identificar si el mensaje es generado por un ser humano o por un modelo de lenguaje automatizado. También puede ser utilizado para generar noticias falsas, que se distribuyan en Internet.

Por otro lado, los ataques de phising o robos de identidad pueden incrementarse con el uso de ChatGPT. El sistema puede generar correos electrónicos automatizados muy persuasivos, con el fin de engañar a las personas y obtener sus credenciales o información privada y financiera. Asimismo, ChatGPT cuenta con una API que permite alimentar a otros chats, de tal manera que se produzcan estafas muy persuasivas.

En definitiva, es importante que los usuarios sean conscientes de estos riesgos, y saber que existe una posibilidad de que el contenido generado por el ChatGPT no sea genuino. También deberían implementar medidas de seguridad y privacidad para prevenir su uso malicioso.

Cargando...