GPT-3 o Generative Pre-Trained Transformer 3 es un modelo de lenguaje autorregresivo que emplea aprendizaje profundo para producir textos que simulan la redacción humana.
Es la tercera generación de los modelos de predicción de lenguaje perteneciente a la serie GPT creados por OpenAI, un laboratorio de investigación de inteligencia artificial con sede en San Francisco que recientemente ha recibido el apoyo del gigante Microsoft.
GPT-3 fue presentado oficialmente el 28 de mayo de 2020, a través de la publicación de la investigación realizada en coautoría por 31 investigadores e ingenieros de OpenAI y de la Universidad John Hopkins.
Su lanzamiento tuvo que hacerse de forma controlada, y cerrada, debido al peligro de: "desinformación, spam, phishing, abuso de procesos legales y gubernamentales, creación de ensayos académicos fraudulentos y pretexting”. Un año después y controlando su forma de uso ha llegado al gran público.
En este último año ha sorprendido a propios y extraños, cuando han surgido aplicaciones muy diferentes a las que inicialmente estaba destinada la IA como completar conversaciones, traducir, resolver pequeñas operaciones o completar código de programación.
La calidad de los textos generados por GPT-3 es tan alta que es difícil distinguirlos de aquellos escritos por humanos, lo cual ha generado la puntualización de los beneficios y riesgos que esto conlleva.
¿Es este sistema un reemplazo real para los humanos en según qué tareas? ¿Estamos preparados para asumir que una máquina realice trabajos intelectuales a nuestro nivel o incluso uno superior?
¿Puede una máquina darnos conversación?
Aprende Swift y SwiftUI con nuestra última formación: Swift Developer Program 2023.
Oliver Nabani
Julio César Fernández