Italia dispuso hoy el bloqueo "con efecto inmediato" de la herramienta de Inteligencia Artificial ChatGPT, de la tecnológica estadounidense OpenAI, acusándola de no respetar la ley de protección de datos de los consumidores.
El garante italiano para la Protección de Datos Personales aseguró en un comunicado que ha abierto una investigación y que, entretanto, el bloqueo se mantendrá hasta que ChatGPT "no respete la disciplina de la privacidad".
El popular ChatGPT ha sido desarrollado por la compañía OpenIA de Estados Unidos, donde varias organizaciones han pedido también su suspensión por sus recelos de estos experimentos con Inteligencia Artificial.
El organismo italiano informó de que este chat, el más conocido de la emergente inteligencia artificial, capaz de simular conversaciones humanas, sufrió el pasado 20 de marzo una pérdida de datos sobre sus usuarios y los datos de pago de sus abonados.
Publicidad
En su disposición, el garante italiano destaca "la falta de información a usuarios y a todos los interesados de quienes recoge datos OpenAI" pero "sobre todo la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales".
Además, alega, las informaciones generadas por ChatGPT "no siempre corresponden" a la realidad.
Publicidad
Por último, Italia lamenta "la ausencia de todo tipo de filtro" en la verificación de la edad de sus usuarios, a pesar de que el servicio esté dirigido a mayores de 13 años. De este modo los niños están "expuestos a respuestas absolutamente no idóneas respecto a su nivel de desarrollo y conciencia".
El uso de la inteligencia artificial cada vez es más frecuente y pujante y, por eso, la Unesco ha urgido a los países que apliquen "sin demora" el Marco Ético Mundial sobre esa tecnología, adoptado en 2021 de forma unánime por los 193 Estados miembros.
ChatGPT, una herramienta que usan los delincuentes
La capacidad de ChatGPT para redactar textos muy realistas a gran velocidad y escala hace de esta herramienta de inteligencia artificial un recurso para fraudes y desinformación, pero también un aliado de ciberdelincuentes con pocos conocimientos técnicos al generar códigos en varios lenguajes de programación, advirtió hoy Europol.
Publicidad
Los modelos de lenguaje extenso como ChatGPT tienen un “lado oscuro”, admite la agencia de coordinación policial, que ha publicado este lunes su primer informe sobre la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes, algo que, dice, “ofrece un panorama sombrío” y un nuevo desafío para la aplicación de la ley.
El modelo actual de acceso público a ChatGPT, capaz de procesar y generar texto similar a una persona, puede responder preguntas sobre una variedad de temas, traducir texto, chatear, generar contenido nuevo y producir código funcional, pero también facilitar actividades delictivas que van desde ayudar a los delincuentes a permanecer en el anonimato hasta delitos específicos, como el terrorismo y la explotación sexual infantil.
Publicidad