AI Lab: Aprendan a codificar con la innovadora Microsoft AI Platform

Entre todos los increíbles anuncios en //Build, una de las cosas que me emocionó lanzar fue AI Lab, una colección de proyectos de IA diseñada para ayudar a los desarrolladores a explorar, experimentar, aprender y codificar con las más recientes tecnologías de Microsoft AI Platform.

¿Qué es AI Lab?

AI Lab ayuda a comenzar una gran y creciente comunidad de desarrolladores. En la actualidad aloja cinco proyectos que muestran lo más nuevo en visión personalizada, attnGAN (más información a continuación), herramientas de Visual Studio para IA, Cognitive Search, comprensión automática de lectura y más. Cada laboratorio les brinda acceso al campo de juegos para la experimentación, código fuente en GitHub, un nítido video para desarrolladores, e información de valor referente a los problemas y soluciones de negocio subyacentes. Uno de los proyectos que resaltamos en //Build fue el reto de búsqueda y rescate que da a los desarrolladores de todo el mundo, la oportunidad de utilizar recursos de AI School para construir e implementar su primer modelo IA para un problema que involucra a drones aéreos.

AI Lab ha sido desarrollado en asociación con AI School de Microsoft y la organización de IA de Microsoft Research (MSR).

Experimentos de AI Lab

En //Build lanzaron los siguientes experimentos de Microsoft:

  1. DrawingBot

En el centro del bot dibujante de Microsoft está una tecnología conocida como Generative Adversarial Network, o GAN. La red consta de dos modelos de aprendizaje automático, uno que genera la imagen a partir de descripciones de texto y otro, conocido como discriminador, que utiliza descripciones de texto para juzgar la autenticidad de las imágenes generadas. El generador busca que imágenes falsas pasen al discriminador; el discriminador busca no ser engañado. En conjunto, el discriminador empuja al generador hacia la perfección. La GAN funciona bien cuando genera imágenes a partir de descripciones simples de texto como un pájaro azul o un árbol, pero la calidad se estanca con descripciones de texto más complejas como un pájaro con una corona verde, alas amarillas y pecho rojo. De la manera en que los humanos dibujan, nos referimos al texto de manera repetida y prestamos atención a las palabras que describen la región de la imagen que dibujamos. Para capturar este rasgo humano, los investigadores crearon lo que llaman un GAN de atención, o AttnGAN por sus siglas en inglés, que representa de manera matemática el concepto humano de atención. Esto lo realiza al dividir el texto de entrada en palabras individuales y relacionarlas con regiones específicas de la imagen. Este bot dibujante es desarrollado por investigadores de MSR AI Lab y está programado para prestar especial atención a palabras individuales cuando genera imágenes a partir de descripciones de texto similares a los pies de foto. Este enfoque deliberado produjo un impulso casi al triple en la calidad de la imagen comparado con la innovadora técnica previa para generación de texto a imagen, de acuerdo con resultados reportados en un documento de investigación de una prueba estándar de la industria, que es publicado en la conferencia CVPR de visión de cómputo. Para conocer más, den clic aquí.


  1. JFK Files

La búsqueda cognitiva es la columna vertebral del experimento JFK Files. En //Build anunciaron Cognitive Search, un enfoque con la AI como base para entendimiento de contenido. Cognitive Search está impulsado por Azure Search con capacidades de Cognitive Services integradas, puede tomar datos de casi cualquier fuente y aplicar un set compuesto por habilidades cognitivas para extraer conocimiento a partir del mismo, este conocimiento es luego organizado y almacenado en un índice, lo que habilita nuevas experiencias para explorar los datos a través de Search. Cuando aplicaron por vez primera Cognitive Search a JFK Files, fue increíble ver lo que surgió. No sólo realizaron interesantes preguntas, también pudieron ver las respuestas y relaciones en el contexto de los documentos originales. Cuando mostramos por primera vez la demo de JFK Files a los clientes, ellos pudieron ver de manera inmediata cómo podrían aplicarlo a sus propios dominios, y utilizarlo para responder sus propias preguntas. Con Cognitive Search, nunca había sido tan fácil traer todo el poder de la nube y la IA a sus datos. Pueden comenzar hoy en sólo unos minutos desde el portal, den clic aquí para más información.

  1. Transferencia de estilo

Para crear esta aplicación, utilizaron Visual Studio Tools para IA, con la intención de entrenar modelos de aprendizaje profundo e incluirlos en la aplicación. Visual Studio Tools para IA mejoró la productividad al permitir de manera sencilla procesar código de entrenamiento de modelo Keras+Tensorflow en dev machine local, luego enviar a Azure VM con poderosos GPU Nvidia. Al comenzar con un modelo pre-entrenado como VGG-19, aceleraron el entrenamiento del modelo y aún así mantener las similitudes semánticas de la imagen de entrada original al preservar objetos como gente, edificios, autos y más. Además, Visual Studio Tools for AI también generó código C# a partir de los modelos TensorFlow entrenados para incluirlos en la aplicación sin tener que escribir el código. Cuando se utiliza la nueva librería Microsoft.ML.Scoring es fácil incluir los modelos TensorFlow u ONNX en aplicaciones que corren en sus dispositivos o en la nube. Las aplicaciones de transferencia de estilo son sólo un tipo de aplicación que utiliza modelos entrenados de aprendizaje automático, pero el proceso de infundir estas nuevas experiencias de aprendizaje automático es siempre el mismo. ustedes pueden entrenar modelos por su cuenta a través de marcos de trabajo como TensorFlow o CNTK, o pueden utilizar capacidades de IA entrenadas de manera previa como Azure Cognitive Services. También pueden comenzar a utilizar hoy la plataforma IA y convertirse en desarrolladores de IA, den clic aquí para obtener más información.

 

  1. Comprensión Automática de Lectura (MRC)

La Comprensión Automática de Lectura (MRC, por sus siglas en inglés) busca responder una pregunta sobre un párrafo de contexto dado. MRC requiere modelar interacciones complejas entre el contexto y la pregunta. Con el uso de una novedosa arquitectura de red neural llamada Reasoning Network (ReasoNet), los investigadores de Microsoft fueron capaces de imitar el proceso de inferencia de los lectores humanos. Con una pregunta en mente, ReasoNet lee un documento de manera repetida, donde en cada vez se enfoca en diferentes partes del documento hasta que se encuentra o forma una respuesta satisfactoria. En la actualidad, los investigadores de Microsoft han podido superar la paridad a nivel humano en el conjunto de datos SQUAD a través de un algoritmo MRC único llamado R-NET: Comprensión Automática de Lectura con Redes de Emparejamiento Propio. R-NET aplica un mecanismo de atención de emparejamiento propio para refinar la representación al emparejar el pasaje contra sí mismo, lo que codifica la información de todo el pasaje de manera efectiva. Cuando aplicamos estos algoritmos MRC al libro Future Computed de Harry Shum y Brad Smith, fue increíble ver cuántas preguntas interesantes pudimos responder con esta técnica. Podemos aplicar esto a los datos empresariales y ayudar a los clientes a responder preguntas específicas a su dominio. Para conocer más, den clic aquí.


 

  1. Drones + AirSim (reto //Build)

Para este escenario de búsqueda y rescate, creamos un ambiente generado en 3D en AirSim para simular el campo de futbol en el campus de Microsoft y colocamos animales de felpa en el mismo. Luego creamos un script Python para volar un dron alrededor el ambiente simulado y tomamos fotografías de los animales. Después, enviamos las imágenes al servicio Custom Vision y entrenamos un modelo para identificar cada tipo de animal en el campo. A partir de esto exportamos el modelo entrenado a un formato TensorFlow y lo empujamos hacia contenedores Docker. Estos contenedores fueron luego implementados a Azure IoT Edge y luego empujados a un dron que corre un tablero personalizado y un GPU Nvidia. El dron es capaz de volar y enviar una alerta a Azure IoT Hub cada vez que identifica un animal de manera exitosa. Esta es una gran muestra de cómo la IA personalizada en tiempo real puede correr en dispositivos de entorno, como un dron. Para conocer más, den clic aquí.

Muy pronto – Propuestas de la comunidad para AI Lab

La siguiente fase de AI Lab, que será lanzada pronto, permitirá recibir propuestas de la comunidad. La idea es motivar a los desarrolladores y obtener sus comentarios sobre la plataforma Microsoft AI. Mientras trabajamos para crear la experiencia del portal de envío de propuestas, esperamos escuchar sus ideas y lo que han hecho con Microsoft AI, por favor compartan sus opiniones con nosotros.