GPT-3, entrevista a una IA

00:00 /1h24

GPT-3 o Generative Pre-Trained Transformer 3 es un modelo de lenguaje autorregresivo que emplea aprendizaje profundo para producir textos que simulan la redacción humana.

Es la tercera generación de los modelos de predicción de lenguaje perteneciente a la serie GPT creados por OpenAI, un laboratorio de investigación de inteligencia artificial con sede en San Francisco que recientemente ha recibido el apoyo del gigante Microsoft.

GPT-3 fue presentado oficialmente el 28 de mayo de 2020, a través de la publicación de la investigación realizada en coautoría por 31 investigadores e ingenieros de OpenAI y de la Universidad John Hopkins.

Su lanzamiento tuvo que hacerse de forma controlada, y cerrada, debido al peligro de: "desinformación, spam, phishing, abuso de procesos legales y gubernamentales, creación de ensayos académicos fraudulentos y pretexting”. Un año después y controlando su forma de uso ha llegado al gran público.

En este último año ha sorprendido a propios y extraños, cuando han surgido aplicaciones muy diferentes a las que inicialmente estaba destinada la IA como completar conversaciones, traducir, resolver pequeñas operaciones o completar código de programación.

La calidad de los textos generados por GPT-3 es tan alta que es difícil distinguirlos de aquellos escritos por humanos, lo cual ha generado la puntualización de los beneficios y riesgos que esto conlleva.

¿Es este sistema un reemplazo real para los humanos en según qué tareas? ¿Estamos preparados para asumir que una máquina realice trabajos intelectuales a nuestro nivel o incluso uno superior?

¿Puede una máquina darnos conversación?

Aprende Swift y SwiftUI con nuestra última formación: Swift Developer Program 2023.

Oliver Nabani

Julio César Fernández

Episodios recientes

Programas relacionados