fbpx
 

GPT-3: Generador automático de texto, traducción y código generado por inteligencia artificial

¿De que hablamos cuando hablamos de GPT-3?

 

Muchos usuarios de Twitter no saben si el artículo o el giro que están leyendo es un manual o un programa de computadora. En 1953, el escritor británico Roald Dahl publicó un cuento llamado “El gran analizador de sintaxis automático”. En él, Adolph, un excelente ingeniero frustrado de una gran empresa, creó una máquina que te permite escribir una historia con la trama y el estilo deseados. Según sus cálculos, se pueden obtener 5.000 palabras en solo 30 segundos. Con este invento, él y su jefe, el Sr. Bolhen, tenían como objetivo capturar el mercado de las mejores revistas literarias y ganar mucho dinero.

¿Qué es GPT-3?

GPT-3 es un modelo de lenguaje natural que puede generar varios textos automáticos desde poesía hasta derecho, economía o ciencias políticas. En muchos casos, no es fácil distinguir sus resultados de los de carne y hueso. Sin embargo, ¡no se limite a asustar al editor! Esta nueva tecnología también puede realizar cálculos, escribir partituras de guitarra o responder preguntas complejas sin formación previa. Incluso puede prepararse para escribir código en varios tipos de lenguajes informáticos (como JavaScript o HTML), traducir de un idioma a otro o de un lenguaje natural a otro.

GPT-3 lee de todo, desde noticias, publicaciones de blogs hasta enciclopedias en línea

La versión anterior de GPT-2 ha sido lanzada y ha causado sensación, su creador lo clasifica como mercancía peligrosa con fines poco éticos. Tiene el potencial de generar una gran cantidad de texto en pocos segundos, por lo que se puede usar para crear noticias falsas, agregar información falsa, etc. Aunque unos meses después, y dijeron que podía ser un poco exagerado, decidieron ponerlo en el mercado.

Pero GPT3 no solo es más poderoso; aunque GPT-1 y GPT-2 usan 110 millones y 1,500,000,000 de parámetros respectivamente, GPT-3 solo funciona con 175 mil millones de parámetros.

Este nuevo modelo ha absorbido más de 400 mil millones de textos en Internet. Luego, a través de estos textos y conocimientos, GPT-3 puede generar una historia o artículo coherente y predecir el significado del texto en base a ciertos datos. Sin embargo, al contrario de lo que pensamos, la tecnología no leerá la información de izquierda a derecha en una oración, ni leerá de derecha a izquierda, de abajo hacia arriba o de arriba hacia abajo como en otros países / regiones. Pero podemos decir que solo se necesitan unos segundos para leer todo a la vez.

No es que esta tecnología pueda entender su lectura o escritura en el sentido humano, pero se puede decir que puede generar coherencia y hacerla correcta en base a una serie de parámetros matemáticos que absorben mucha información.

¿Pero es realmente tan asombroso?

Como afirman sus creadores, esta tecnología está lejos de ser perfecta. Aún comete errores y, a veces, aparecen inconsistencias. Además, a lo largo de la historia de Internet, apoyándose en textos y materiales creados por humanos, puede absorber muchos prejuicios y prejuicios. Por ejemplo, incluso GPT-3 responde a ciertos problemas de manera racista o sexista.

Sin embargo, el hecho de que pueda realizar acciones específicas en el procesamiento del lenguaje natural sin un entrenamiento especial es un paso importante en la inteligencia artificial. En vista del rápido progreso en este campo, en los próximos años, sin duda, nos veremos obligados a reconsiderar nuestra comprensión e interacción con el mundo que nos rodea, especialmente con la tecnología.

En la historia de Roald Dahl, la máquina de escribir de la historia de Adolph se parece al tablero de un avión. Al presionar una serie de botones o joysticks, puede preseleccionar la trama o el estilo, la categoría, el tema, el personaje o el diccionario. ¿Quién puede asegurarnos en unos años que tal artículo no es un artículo con botones y joysticks escrito por el prolífico autor GPT-X?



WhatsApp chat