29/03/2021
Esta Inteligencia artificial puede generar texto convincente. Cualquiera puede usarla
Algunos de los avances recientes más deslumbrantes en inteligencia artificial se han producido gracias a recursos que solo están disponibles en las grandes empresas de tecnología, donde miles de potentes computadoras y terabytes de datos pueden ser tan abundantes como barras de granola y cápsulas de siesta gratuitas.
Un nuevo proyecto tiene como objetivo mostrar que este no es necesariamente el caso, mezclando el código, los datos y la potencia de la computadora necesarios para reproducir uno de los algoritmos de inteligencia artificial más épicos y potencialmente útiles desarrollados en los últimos años.
Eleuther es un esfuerzo de código abierto para igualar GPT-3, un poderoso algoritmo lanzado en 2020 por la compañía OpenAI que es capaz de escribir artículos sorprendentemente coherentes en inglés a partir de un mensaje de texto de entrada introducido por el usuario. Eleuther todavía está un poco lejos de igualar las capacidades completas de GPT-3 para generar texto convincente, pero la semana pasada los investigadores lanzaron una nueva versión de su modelo. La nueva versión llamada GPT-Neo, es tan poderosa como la versión menos sofisticada de GPT-3. El ser un proyecto de código abierto hará para que cualquiera con los conocimientos necesarios pueda usarla.
Los grandes proyectos de inteligencia artificial de código abierto podrían hacer que la tecnología sea más accesible y generalizada en un momento en que se ha afianzado cada vez más en las grandes empresas.
“Existe un gran entusiasmo en este momento por el NLP de código abierto y por producir modelos útiles fuera de las grandes empresas de tecnología”. dice Alexander Rush, profesor de informática en la Universidad de Cornell, refiriéndose a un subcampo de la inteligencia artificial conocido como procesamiento del lenguaje natural que se centra en ayudar a las máquinas a utilizar el lenguaje. “Hay algo parecido a una carrera espacial de NLP”.
Si ese es el caso, entonces GPT-3 podría considerarse el Sputnik del campo. GPT-3 consiste en una enorme red neuronal artificial que fue alimentada con miles de millones de palabras de texto extraídas de la web. GPT-3 puede ser sorprendentemente elocuente y articulado, aunque también puede lanzar declaraciones que son un galimatías e incluso ofensivas. Decenas de grupos de investigación y empresas buscan formas de hacer uso de esta tecnología.
El código fuente para GPT-3 no se ha publicado, pero las pocas docenas de investigadores detrás de Eleuther, que provienen de la academia y la industria, se basan en artículos que describen cómo funciona. Rush, que no está afiliado a Eleuther, dice que el proyecto es uno de los más impresionantes de código abierto en NLP. Además de crear potentes algoritmos de lenguaje modelados a partir de GPT-3, dice que el equipo de Eleuther ha seleccionado y publicado un conjunto de datos de texto de alta calidad conocido como Pile para entrenar algoritmos de NLP.
Mohit Iyyer, profesor de ciencias de la computación en la Universidad de Massachusetts Amherst, está utilizando datos y modelos de Eleuther para extraer críticas literarias en busca de ideas sobre textos famosos, entre otros proyectos. Esto incluye entrenar un algoritmo para predecir qué secciones de un libro como Jane Eyre se citarán en una crítica en particular. Iyyer dice que esto podría ayudar a producir un programa con una comprensión más sutil del lenguaje. “Definitivamente estamos agradecidos de que hayan agregado todos estos datos en un solo recurso”, dice Iyyer.
Quizás el mayor desafío para cualquier proyecto de inteligencia artificial de código abierto es la gran cantidad de potencia informática requerida. La capacitación de GPT-3 requirió el equivalente a varios millones de dólares en recursos de computación en la nube. OpenAI dijo recientemente que la potencia informática requerida para proyectos de inteligencia artificial de vanguardia había aumentado unas 300.000 veces entre 2012 y 2018.
El proyecto Eleuther hace uso de recursos informáticos distribuidos, donados por la empresa CoreWeave y por Google, a través de TensorFlow Research Cloud, una iniciativa que pone a disposición energía de computadora de repuesto, según los miembros del proyecto. Para facilitar el acceso a la energía de la computadora, el equipo de Eleuther creó una forma de dividir los cálculos de IA en múltiples máquinas. Pero no está claro cómo se podrían cumplir los requisitos computacionales si el proyecto continúa creciendo.
Fuente original: https://www.wired.com/story/ai-generate-convincing-text-anyone-use-it/
Noticias relacionadas
-
Los cimientos de la Inteligencia Artificial están plagados de errores
El auge actual de la inteligencia artificial se remonta a 2012 y un gran avance durante un …
-
Investigadores desenfocan caras que lanzaron mil algoritmos
En 2012, los investigadores de inteligencia artificial diseñaron un gran salto en la …