El ya famoso chatbot de inteligencia artificial desarrollado en noviembre de 2022 por OpenAI ha tenido una vulnerabilidad que ha expuesto datos personales.

La inteligencia artificial (IA o bien AI del inglés) está absolutamente de moda desde que la empresa OpenAI desarrollara ChatGPT y lo pusiera en el mercado, la mejor forma de estudiar su comportamiento.

En realidad este chatbot es un modelo de lenguaje, que en unos meses ha revolucionado el mercado, por sus espectaculares logros, en forma de redacción de textos.
Con ello se han disparado las opciones de la IA en diversos campos y ya se habla de que puede sustituir a humanos en múltiples trabajos. Sin ir más lejos, numerosos blogs ya han publicado artículos creados directamente por IA.

Pero parece que en este caso la inteligencia artificial no es tan inteligente o no es tan artificial. Ya a finales de enero publicamos un artículo en este blog titulado “Primeros malos usos de ChatGPT”.
El tema venía a cuento a raíz de que los delincuentes lo usaron para crear campañas de malware. Dicho de otro modo: se aprovecharon de sus posibilidades y de que la herramienta va “aprendiendo” para buscar archivos, copiarlos, comprimirlos y subirlos a un servidor FTP codificado.

Ahora ha llegado la información de que ha tenido un fallo de seguridad. Fueron varios los usuarios de ChatGPT Plus los que avisaron de que podían descubrir conversaciones de otros usuarios. Lo hicieron público en Twitter y Reddit, un sitio web de marcadores sociales y agregador de noticias.
OpenAI reaccionó rápidamente. Primero deshabilitó el acceso a la herramienta y después creó un parche para esta vulnerabilidad. La empresa, por lo tanto, reconoció el fallo de seguridad en ChatGPT e informó de que la vulnerabilidad expuso datos personales (nombres, direcciones de emails, informaciones de pago, etc.) de “solo” el 1,2% del total de usuarios de la versión Plus.
También aseguró que los números de las tarjetas de crédito no fueron expuestos en ningún momento.
El fallo tuvo su origen en la biblioteca de código abierto de Redis, un motor de base de datos.


Bandera y logo de Europol.
Foto: web de Europol.

¿Qué enseñanza debemos sacar de todo ello?

Es evidente que la inteligencia artificial ya está cambiando muchos aspectos de nuestra vida personal y empresarial. Y sus posibilidades son inmensas y en su mayoría aún desconocidas. Nos va a dar muchas alegrías, sin lugar a duda. Como ejemplo, podéis ver nuestro artículo “¿Ya podemos decir que la IA es más presente que futuro?”
Pero de momento debemos quedarnos con el aviso para navegantes: ¡prudencia! Que sea “inteligencia”, aunque artificial, no significa que esté exenta de peligros, como ya hemos visto.
La tecnología avanza con pasos agigantados y a menudo nos lanzamos a probarla sin más, cuando lo recomendable es hacerlo prudentemente. Algunas empresas ya lo han comprendido y para eso han creado registros imaginados y cuentas bancarias con muy poco dinero. De esta forma pueden probar nuevas tecnologías o “jugar a cosas varias”, como podría ser el comprobar como ChatGPT hace un artículo sobre su empresa en breves segundos.

Esta misma semana Europol, la organización policial europea, ha publicado un informe en el que alerta sobre los peligros de la tecnología ChatGPT, ya que puede ser una buena ayuda para cometer delitos. Podéis acceder a este informe AQUÍ.

Nuestra recomendación es clara: ¡consultadnos! Solo las empresas que ofrecen una consultoría en seguridad de la información pueden recomendaros lo que necesitáis en cada momento. También os pueden decir si una nueva herramienta es necesaria para vuestro negocio o seguridad o no lo es. TECNOideas, por ejemplo, nunca recomienda algo que no hayamos probado previamente.

Imagen principal: Gordon Johnson en Pixabay

¿Le ha gustado nuestra publicación?

Haga click en las estrellas para valorar la entrada

Promedio 0 / 5. Votos 0

Todavía nadie ha valorado esta entrada. Sea el primero

1 Comment

  • Alfonso Berruezo
    Posted 04/01/2024 8:11 pm 0Likes

    El mundo avanza y no se puede ir contra ello. Hay multitud de ejemplos en la ciencia y en la vida cotidiana que al ir avanzando han cuestionado otros elementos. ¡Hay miles de ejemplos! La irrupción de la aviación, la electricidad, la radio, la televisión, el vídeo, la informática y podemos seguir hasta el infinito y más allá.
    La IA ya está aquí y se va a quedar. Va a evolucionar. Pero hay que ir con cuidado, no podemos usarla indiscriminadamente, ni es la solución a todo. Hay que verla, estudiarla, saber para que la vamos a usar, conocer sus límites… en definitiva, algo tan viejo como el sentido común. Es una herramienta más. Usarla bien y con responsabilidad es un trabajo para cada uno de nosotros.

Leave a comment

Aquest lloc utilitza Akismet per reduir els comentaris brossa. Apreneu com es processen les dades dels comentaris.