/ lunes 18 de abril de 2022

Robots serán cada vez más creativos

Las nuevas generaciones de sistemas de aprendizaje están causando sensación con su increíble capacidad para generar trabajo creativo de toda índole

Si has visto fotos de una tetera con forma de aguacate o leído artículos bien escritos que se desvían por tangentes ligeramente extrañas, es posible que hayas estado expuesto a una nueva tendencia de la inteligencia artificial (IA).

Los sistemas de aprendizaje automático llamados DALL-E, GPT y PaLM están causando sensación con su increíble capacidad para generar trabajo creativo.

Estos sistemas se conocen como "modelos de base" y no son solo exageraciones o trucos de fiesta, sino nuevos enfoques que han hecho que muchos vean en estas aplicaciones el fin de la creatividad humana y el comienzo de una pesadilla profundamente falsa.

Los modelos básicos funcionan entrenando un solo sistema enorme en grandes cantidades de datos generales y luego adaptando el sistema a nuevos problemas, mientras que los modelos anteriores tendían a empezar de cero para cada nuevo problema.

DALL-E 2, por ejemplo, fue entrenado para hacer coincidir imágenes (como una foto de un gato) con la leyenda ("Mr. Fuzzyboots, el gato atigrado se está relajando bajo el sol") escaneando cientos de millones de ejemplos. Una vez entrenado, este modelo sabe cómo se ven los gatos (y otras cosas) en las imágenes.

Pero el modelo también se puede usar para muchas otras tareas interesantes de IA, como generar nuevas imágenes a partir de un título solo ("Muéstrame un koala clavando una pelota de baloncesto") o editar imágenes basadas en instrucciones escritas ("Haz que parezca que este mono está pagando impuestos").

Los modelos básicos se ejecutan en "redes neuronales profundas", que se inspiran libremente en el funcionamiento del cerebro, e involucran matemáticas sofisticadas y una gran cantidad de poder de cómputo, pero se reducen a un tipo muy sofisticado de coincidencia de patrones.

Por ejemplo, al observar millones de imágenes de ejemplo, una red neuronal profunda puede asociar la palabra "gato" con patrones de píxeles que a menudo aparecen en imágenes de gatos, como manchas de textura suaves, borrosas y peludas. Cuantos más ejemplos ve el modelo , y más grande es este (más "capas" o "profundidad" tiene), más complejos pueden ser estos patrones y correlaciones.

Los modelos básicos son, en cierto sentido, sólo una extensión del paradigma de "aprendizaje profundo" que ha dominado la investigación de IA durante la última década. Sin embargo, exhiben comportamientos no programados o “emergentes” que pueden ser sorprendentes

Por ejemplo, el modelo de lenguaje PaLM de Google parece ser capaz de producir explicaciones para bromas y metáforas complicadas. Esto va más allá de simplemente imitar los tipos de datos para los que fue entrenado originalmente.

Es difícil pensar en la gran escala de estos sistemas de IA. PaLM tiene 540 mil millones de parámetros, lo que significa que incluso si todos en el planeta memorizaran 50 números, aún no tendríamos suficiente almacenamiento para reproducir el modelo.

Los modelos son tan enormes que entrenarlos requiere cantidades masivas de recursos computacionales y de otro tipo. Una estimación sitúa el costo de entrenar el modelo de lenguaje GPT-3 de OpenAI en alrededor de 5 millones de dólares.

Como resultado, solo las grandes empresas tecnológicas como OpenAI, Google y Baidu pueden permitirse construir modelos básicos en este momento. Estas empresas limitan quién puede acceder a los sistemas, lo que tiene sentido económico.

Las restricciones de uso pueden darnos cierta tranquilidad de que estos sistemas no se utilizarán con fines nefastos (como generar noticias falsas o contenido difamatorio) en el corto plazo. Pero esto también significa que los investigadores independientes no pueden interrogar estos sistemas y compartir los resultados de manera abierta y responsable. Por lo tanto, aún no conocemos todas las implicaciones de su uso.

Se producirán más modelos básicos en los próximos años. Ya se están publicando modelos más pequeños en formas de código abierto, las empresas de tecnología están comenzando a experimentar con la concesión de licencias y la comercialización de estas herramientas y los investigadores de IA están trabajando arduamente para hacer que la tecnología sea más eficiente y accesible.

La notable creatividad mostrada por modelos como PaLM y DALL-E 2 demuestra que los trabajos profesionales creativos podrían verse afectados por esta tecnología antes de lo esperado inicialmente.

El futuro del trabajo profesional y creativo podría verse un poco diferente de lo que esperábamos.

Como investigadores que estudian los efectos de la IA en la sociedad, creemos que los modelos básicos generarán grandes transformaciones. Están estrictamente controlados (por ahora), por lo que probablemente tengamos un poco de tiempo para comprender sus implicaciones antes de que se conviertan en un gran problema.

El genio aún no ha salido de la botella, pero los modelos de base son una botella muy grande, y dentro hay un genio muy inteligente.

* Especialistas de la Universidad Tecnológica de Queensland.



TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Si has visto fotos de una tetera con forma de aguacate o leído artículos bien escritos que se desvían por tangentes ligeramente extrañas, es posible que hayas estado expuesto a una nueva tendencia de la inteligencia artificial (IA).

Los sistemas de aprendizaje automático llamados DALL-E, GPT y PaLM están causando sensación con su increíble capacidad para generar trabajo creativo.

Estos sistemas se conocen como "modelos de base" y no son solo exageraciones o trucos de fiesta, sino nuevos enfoques que han hecho que muchos vean en estas aplicaciones el fin de la creatividad humana y el comienzo de una pesadilla profundamente falsa.

Los modelos básicos funcionan entrenando un solo sistema enorme en grandes cantidades de datos generales y luego adaptando el sistema a nuevos problemas, mientras que los modelos anteriores tendían a empezar de cero para cada nuevo problema.

DALL-E 2, por ejemplo, fue entrenado para hacer coincidir imágenes (como una foto de un gato) con la leyenda ("Mr. Fuzzyboots, el gato atigrado se está relajando bajo el sol") escaneando cientos de millones de ejemplos. Una vez entrenado, este modelo sabe cómo se ven los gatos (y otras cosas) en las imágenes.

Pero el modelo también se puede usar para muchas otras tareas interesantes de IA, como generar nuevas imágenes a partir de un título solo ("Muéstrame un koala clavando una pelota de baloncesto") o editar imágenes basadas en instrucciones escritas ("Haz que parezca que este mono está pagando impuestos").

Los modelos básicos se ejecutan en "redes neuronales profundas", que se inspiran libremente en el funcionamiento del cerebro, e involucran matemáticas sofisticadas y una gran cantidad de poder de cómputo, pero se reducen a un tipo muy sofisticado de coincidencia de patrones.

Por ejemplo, al observar millones de imágenes de ejemplo, una red neuronal profunda puede asociar la palabra "gato" con patrones de píxeles que a menudo aparecen en imágenes de gatos, como manchas de textura suaves, borrosas y peludas. Cuantos más ejemplos ve el modelo , y más grande es este (más "capas" o "profundidad" tiene), más complejos pueden ser estos patrones y correlaciones.

Los modelos básicos son, en cierto sentido, sólo una extensión del paradigma de "aprendizaje profundo" que ha dominado la investigación de IA durante la última década. Sin embargo, exhiben comportamientos no programados o “emergentes” que pueden ser sorprendentes

Por ejemplo, el modelo de lenguaje PaLM de Google parece ser capaz de producir explicaciones para bromas y metáforas complicadas. Esto va más allá de simplemente imitar los tipos de datos para los que fue entrenado originalmente.

Es difícil pensar en la gran escala de estos sistemas de IA. PaLM tiene 540 mil millones de parámetros, lo que significa que incluso si todos en el planeta memorizaran 50 números, aún no tendríamos suficiente almacenamiento para reproducir el modelo.

Los modelos son tan enormes que entrenarlos requiere cantidades masivas de recursos computacionales y de otro tipo. Una estimación sitúa el costo de entrenar el modelo de lenguaje GPT-3 de OpenAI en alrededor de 5 millones de dólares.

Como resultado, solo las grandes empresas tecnológicas como OpenAI, Google y Baidu pueden permitirse construir modelos básicos en este momento. Estas empresas limitan quién puede acceder a los sistemas, lo que tiene sentido económico.

Las restricciones de uso pueden darnos cierta tranquilidad de que estos sistemas no se utilizarán con fines nefastos (como generar noticias falsas o contenido difamatorio) en el corto plazo. Pero esto también significa que los investigadores independientes no pueden interrogar estos sistemas y compartir los resultados de manera abierta y responsable. Por lo tanto, aún no conocemos todas las implicaciones de su uso.

Se producirán más modelos básicos en los próximos años. Ya se están publicando modelos más pequeños en formas de código abierto, las empresas de tecnología están comenzando a experimentar con la concesión de licencias y la comercialización de estas herramientas y los investigadores de IA están trabajando arduamente para hacer que la tecnología sea más eficiente y accesible.

La notable creatividad mostrada por modelos como PaLM y DALL-E 2 demuestra que los trabajos profesionales creativos podrían verse afectados por esta tecnología antes de lo esperado inicialmente.

El futuro del trabajo profesional y creativo podría verse un poco diferente de lo que esperábamos.

Como investigadores que estudian los efectos de la IA en la sociedad, creemos que los modelos básicos generarán grandes transformaciones. Están estrictamente controlados (por ahora), por lo que probablemente tengamos un poco de tiempo para comprender sus implicaciones antes de que se conviertan en un gran problema.

El genio aún no ha salido de la botella, pero los modelos de base son una botella muy grande, y dentro hay un genio muy inteligente.

* Especialistas de la Universidad Tecnológica de Queensland.



TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Local

Sanluisinos invierten hasta 2 mil pesos en los regalos de cada uno de sus hijos

En esta época del año, las jugueterías se ven favorecidas con la llegada de un mayor número de clientes que acuden en busca de obsequios para los reyes del hogar

Local

Banda de Música de la Secundaria 30 brilla en el AcaFest 2024

Luego de una exitosa presentación en Acapulco en donde pusieron en alto el nombre de Sonora; continuarán con su preparación para próximas presentaciones

Local

Rinde protesta nuevo Comité Municipal de Planeación de SLRC

Los integrantes trabajarán durante los próximos días en mesas de trabajo para trazar y definir los proyectos urbanos de corto, mediano y largo plazo

Policiaca

Capturan a pareja de presuntos narcomenudistas durante cateo domiciliaro en "la Burócrata"

Los imputados junto con los indicios asegurados, quedaron a disposición del agente del Ministerio Público del Fuero Común para las investigaciones correspondientes

Local

Automovilista impacta semáforo a alta velocidad; le cae encima

A causa de los daños en el semáforo la camioneta fue depositada en el corralón a disposición de la Dirección de Seguridad Pública Municipal

Local

Salud Sonora recomienda acciones de prevención para la temporada invernal

En esta temporada invernal es importante que la población se proteja del frío y tome precauciones para evitar intoxicación por monóxido de carbono