miércoles, 1 de julio de 2020

Inteligencia Artificial

Este tema es realmente apasionante!  cada mes sale algo que genera impacto y que nos acerca más a ese escenario en donde no podemos distinguir entre humano y máquina.

Me han llamado la atención especialmente tres sucesos de los últimos días:

1. OpenAI y su GPT-3. estaba explorando un poco y veo que es el modelo más grande entrenado hasta ahora en el mundo, con 175 mil millones de parámetros y un solo objetivo: predecir la siguiente palabra a partir de un texto. Pues bien, lo que se observa es que este modelo a ser entrenado con tantos datos, es incluso capaz de hacer cosas para las cuales no fue entrenado, como sumar, o multiplicar... pareciera similar a cuando de niños aprendemos que 2 + 2 es igual a 4 y luego respondemos sin siquiera pensar en la operación matemática. Bueno, se imaginarán ustedes cómo hace las cosas para las que fue realmente entrenado... es impresionante al punto de que en aproximadamente la mitad de las veces no es posible para las personas distinguir que se trata de un texto escrito por una máquina...

También impresiona el cómo hicieron para entrenarlo, que aunque OpenAI no ha revelado información detallada, en lambda labs hay una publicación que da mucho contexto.  https://lambdalabs.com/blog/demystifying-gpt-3/

Vean ejemplos de textos generados automáticamente en GPT3 en  https://read-the-samples.netlify.app/sample_1995

Y finalmente, en el paper también pueden ver más ejemplos descrestadores como este:

Le enseñamos al modelo una nueva palabra así: To do a "farduddle" means to jump up and down really fast.

Luego le pedimos que nos de una frase de ejemplo en donde se use esa palabra así: An example of a sentence that uses the word farduddle is:

y el modelo se inventa esto: One day when I was playing tag with my little sister, she got really excited and she started doing these crazy farduddles.

Mejor dicho, vean el paper  https://arxiv.org/pdf/2005.14165.pdf


2. Facebook y su chatbot blender: bueno, estuve viendo unos videos de conversaciones con blender en tiempo real y les puedo decir que es escalofriante, por el contexto que le da a las conversaciones, porque se acuerda de lo que dijo y si se equivoca, intenta retractarse, porque adapta la forma de escritura según el tipo de conversación, entre informal y formal... bueno miren por su cuenta:  https://www.youtube.com/watch?v=-op_yOXBNEY


3. Facebook y su mecanismo para construir un modelo 3D a partir de una imagen o video 2D. En este caso ya había varias implementaciones, solo que en esta última publicada por Facebook hace un par de semanas, se mejora bastante la resolución con la que genera los objetos 3D. Pienso que esto puede pasar un tanto desapercibido para muchos, pero en realidad lo que está pasando es que le estamos dando a las máquinas esa capacidad que tenemos los humanos de percibir las 3 dimensiones en donde vivimos, imaginándonos cómo son los objetos en los lados que no alcanzamos a ver porque están detrás de nuestro alcance visual... eso les da a las máquinas el poder de sumergirse en nuestro mundo, lo que están haciendo los vehículos autónomos con mecanismos como el Lidar en el caso de Tesla.

En general, los avances en visión artificial publicados por Facebook son muy buenos (identificación individual de objetos en imágenes, especificando su silueta, etc) Miren más en  https://ai.facebook.com/blog/facebook-research-at-cvpr-2020 . Aunque por ahí leí que quienes realmente la sacaron del estadio en el CVPR 2020 (Conference on Computer Vision and Pattern Recognition) fueron los chinos...


No hay comentarios: