Aunque empresas como Microsoft, Facebook y Google ya habían comenzado con desarrollos importantes, OpenAI, empresa desarrolladora de ChatGPT, logró que en menos de 60 días 100 millones de usuarios utilizaran su plataforma.
La revista TIME, en entrevista con OpenAI, expone que en el 2020 el lanzamiento del modelo de lenguaje GPT-3 se vio envuelto en críticas por parte de la comunidad tecnológica por arrojar información falsa a ciertas preguntas, producir algunos textos racistas u ofensivos, e incluso sugerir que quien respondía era una persona real y no una inteligencia artificial.
Con base en esto, la compañía desarrolladora asegura que el nuevo bot de ChatGPT ha sido entrenado “no solo para ser menos tóxico, sino también más resistente a las personas que intentan jugar con él para producir información dañina o inexacta”.
Samir Estefan, especialista tecnológico, explicó a Caracol Ahora que uno de los riesgos más grandes que se tienen frente al tema es que alguien pueda usar la herramienta con fines nefarios, enfatizando en que, así como sucedió con las redes sociales, las personas están en la capacidad de manipular la inteligencia artificial para transformar el discurso de una manera tan convincente que los límites entre la información verídica y falsa sean desdibujados.
- Le podría interesar: Así funciona el ChatGPT, la herramienta de IA que genera controversia en los salones de clase
Estefan explica cómo podría funcionar esta manipulación: “Imagínese decenas de personas creando herramientas que creen millones de artículos cargados de mentiras. Por ejemplo, una persona que quiere convencer a todos que el planeta es plano. Entonces, le meten plata a una bodega, ya no de influenciadores, sino a una que le pide a estos chats que genere documentos soportando con diferentes evidencias que la tierra es plana, y luego empiezan a publicar eso por doquier, de tal manera cuando usted busque va a ver que la Tierra es plana. Pero por otro lado, cuando los algoritmos comienzan a nutrirse de la información disponible en internet y se vuelve una bola de nieve”.
Muchos se preguntan quién impondrá los límites. El especialista argumenta que en este momento hay una sentencia en la corte suprema de Estados Unidos que pudiese llegar a tocar algo de la tecnología subyacente, y que en Europa ya se han intentado generar reglamentaciones en cuanto a los usos de la inteligencia artificial en diferentes campos. Sin embargo, no considera que se dé una política mundial para regular el tema, debido a que la mayoría de los países siguen flojos en el tema.
Publicidad
“El impacto aquí puede ser uno que nunca hemos visto. Ya vimos lo que nos pasó con las redes sociales, que es una cosa minúscula al lado de esto. El riesgo que tenemos acá es mucho mayor”, agrega Samir.
- En otras noticias: Elon Musk ordenó ajustar algoritmo de Twitter para que sus tuits se vean más