Agenda 2020
09 A.M | Comienza la transmisión en vivo | |
09:30 AM | Fundamental | megan kacholia Kemal El Mujahid manasi joshi |
9:55 | Aprendiendo a leer con TensorFlow y Keras El procesamiento del lenguaje natural (NLP, por sus siglas en inglés) ha llegado a un punto de inflexión, y esta charla le muestra cómo TensorFlow y Keras facilitan el preprocesamiento, el entrenamiento y el hiperajuste de los modelos de texto. | paige bailey |
10:15 | TensorFlow Hub: facilitando el descubrimiento de modelos TF Hub es el repositorio principal de modelos de ML. Esta charla analiza todas las funciones nuevas y cómo pueden hacer que su viaje de descubrimiento de modelos sea aún mejor. | Sandeep Gupta |
10:25 | Aprendizaje automático colaborativo con TensorBoard.dev Compartir los resultados de los experimentos es una parte importante del proceso de ML. Esta charla muestra cómo TensorBoard.dev puede habilitar el aprendizaje automático colaborativo al facilitar el intercambio de resultados de experimentos en su documento, publicación de blog, redes sociales y más. | gal oshri |
10:30 | Transición de Kagglers a TPU con TF 2.x Recientemente, Kaggle introdujo la compatibilidad con TPU a través de su plataforma de competencia. Esta charla trata sobre cómo los competidores de Kaggler pasaron del uso de GPU a TPU, primero en Colab y luego en portátiles Kaggle. | julia eliott |
10:35 | Perfilado de rendimiento en TF 2 Esta charla presenta un generador de perfiles que Google usa internamente para investigar el rendimiento de TF en plataformas que incluyen GPU, TPU y CPU. | qiumin xu | 10:45 | Posible bloque de preguntas y respuestas Aproveche la función LiveChat en la transmisión en vivo, ya que los miembros del equipo de TensorFlow responderán en el chat en tiempo real. Si tenemos tiempo adicional en la transmisión en vivo, responderemos algunas preguntas en vivo. | Todos los oradores hasta ahora |
10:55 | Romper | |
11:20 | Investigación con TensorFlow En esta charla, repasaremos algunas características interesantes de TF que son útiles al realizar investigaciones. | Alejandro Passos |
11:35 | Capas de optimización convexas diferenciables Los problemas de optimización convexa se utilizan para resolver muchos problemas en el mundo real. Hasta ahora, ha sido difícil usarlos en las canalizaciones de TensorFlow. Esta charla presenta cvxpylayers, un paquete que facilita la incorporación de problemas de optimización convexos en TensorFlow, lo que le permite ajustarlos mediante el descenso de gradiente. | Akshay Agrawal, Universidad de Stanford |
11:40 | Escalando el procesamiento de datos de Tensorflow con tf.data A medida que el entrenamiento del modelo se vuelve más distribuido por naturaleza, tf.data ha evolucionado para tener más en cuenta la distribución y el rendimiento. Esta charla presenta las herramientas tf.data para escalar el procesamiento de datos de TensorFlow. En particular: el servicio tf.data que permite que su canalización tf.data se ejecute en un grupo de máquinas y tf.data.snapshot que materializa los resultados en el disco para reutilizarlos en varias invocaciones. | Rohan Jain |
11:55 | Escalamiento de modelos de TensorFlow 2 a GPU para varios trabajadores Esta charla muestra múltiples mejoras de rendimiento en TensorFlow 2.2 para acelerar y escalar la carga de trabajo de capacitación de ML de los usuarios a múltiples GPU de varios trabajadores. Recorremos las optimizaciones usando una tarea de ajuste fino BERT en el jardín modelo TF, escrito usando un ciclo de entrenamiento personalizado. | zongwei zhou |
12:10 | Aprovechar al máximo Colaboración Aprende consejos y trucos del equipo de Colab. Esta charla describe cómo los usuarios de TensorFlow aprovechan al máximo Colab y se asoma tras bambalinas para ver cómo funciona Colab. | timoteo novikoff |
12:15 | TensorFlow y aprendizaje automático desde las trincheras: el centro de experiencia de innovación en el laboratorio de propulsión a chorro Chris Mattmann explicará cómo el Centro de Experiencia de Innovación de JPL en la Oficina del Director de Información admite análisis avanzados, inteligencia artificial y aprendizaje automático utilizando TensorFlow para Smarter Rovers, un Smarter Campus y más. | Chris Mattmann, NASA |
12:25 | Posible bloque de preguntas y respuestas Aproveche la función LiveChat en la transmisión en vivo, ya que los miembros del equipo de TensorFlow responderán en el chat en tiempo real. Si tenemos tiempo adicional en la transmisión en vivo, responderemos algunas preguntas en vivo. | Ponentes desde el descanso en adelante |
12:35 | Romper | |
13:40 | MLIR: aceleración de TF con compiladores Esta charla describirá MLIR: la infraestructura del compilador de aprendizaje automático para TensorFlow y explicará cómo ayuda a TensorFlow a escalar más rápido para satisfacer las necesidades del software y hardware de aprendizaje automático en rápida evolución. | jacques pienaar |
13:50 | TFRT: un nuevo tiempo de ejecución de TensorFlow TFRT es un nuevo tiempo de ejecución para TensorFlow. Aprovechando MLIR, su objetivo es proporcionar una capa de infraestructura unificada y extensible con el mejor rendimiento de su clase en una amplia variedad de hardware específico de dominio. Este enfoque proporciona un uso eficiente de las CPU de host multiproceso, admite modelos de programación completamente asincrónicos y se centra en la eficiencia de bajo nivel. | Mingsheng Hong |
2:00 PM | TFX: Production ML con TensorFlow en 2020 Descubra cómo la plataforma de aprendizaje automático de producción de Google, TFX, está cambiando en 2020. | Tris Warkentin Zhitao Li |
14:25 | TensorFlow Enterprise: Producción de TensorFlow con Google Cloud TensorFlow Enterprise hace que sus aplicaciones de TensorFlow estén listas para la empresa, con una serie de mejoras para TensorFlow en Google Cloud. Desbloquea datos y modelos a escala de la nube, al tiempo que simplifica el desarrollo de aplicaciones de ML críticas para el negocio desde el prototipo hasta la producción. Juntos, resolvemos la parte más difícil del aprendizaje automático empresarial en producción. | makoto uchida |
14:35 | TensorFlow Lite: ML para dispositivos móviles e IoT Obtenga información sobre cómo implementar ML en teléfonos móviles y dispositivos integrados. Ahora implementado en miles de millones de dispositivos en producción, es el mejor marco de aprendizaje automático multiplataforma del mundo para dispositivos móviles y microcontroladores. Sintonice nuestros nuevos anuncios emocionantes. | tim davis TJ Alumbaugh |
14:55 | Jacquard: incrustar ML sin problemas en objetos cotidianos Jacquard es una plataforma informática ambiental impulsada por ML que toma objetos comunes y familiares y los mejora con nuevas habilidades y experiencias digitales, sin dejar de ser fiel a su propósito original. Describiremos cómo hemos entrenado e implementado modelos de aprendizaje automático con recursos limitados que se integran sin problemas en prendas y accesorios cotidianos; como tu chaqueta favorita, mochila o un par de zapatos que te encanta usar. | Nicolás Gillian |
15:05 | TensorFlow.js: aprendizaje automático para la web y más allá TensorFlow.js es una plataforma para entrenar e implementar modelos de aprendizaje automático en navegadores o en cualquier lugar donde se pueda ejecutar Javascript, como dispositivos móviles, la plataforma de miniaplicaciones WeChat y Raspberry Pi. Proporciona varios back-end, incluidos un back-end de CPU, GPU, nodo y WASM. También proporciona una colección de modelos preentrenados, incluidas las dos incorporaciones más recientes: MobileBERT y FaceMesh. | na li |
15:15 | Posible bloque de preguntas y respuestas Aproveche la función LiveChat en la transmisión en vivo, ya que los miembros del equipo de TensorFlow responderán en el chat en tiempo real. Si tenemos tiempo adicional en la transmisión en vivo, responderemos algunas preguntas en vivo. | Ponentes desde el descanso en adelante |
15:25 | Romper | |
15:45 | Involucrarse en la comunidad TF Aprenda cómo puede ser parte del creciente ecosistema de TensorFlow y conviértase en un colaborador a través del código, la documentación, la educación o el liderazgo comunitario. | joana carraqueira |
15:55 | IA responsable con TensorFlow: equidad y privacidad Presentamos un marco para pensar en ML, equidad y privacidad. Esta charla propondrá un flujo de trabajo de aprendizaje automático consciente de la equidad, ilustrará cómo las herramientas de TensorFlow, como los indicadores de equidad, se pueden usar para detectar y mitigar el sesgo, y luego pasará a un estudio de caso específico sobre privacidad que guiará a los participantes a través de un par de piezas de infraestructura. que puede ayudar a entrenar un modelo de una manera que preserve la privacidad. | catalina xu miguel guevara |
16:20 | TensorFlow Quantum: una plataforma de software para el aprendizaje automático híbrido cuántico-clásico Presentamos TensorFlow Quantum, una biblioteca de código abierto para la creación rápida de prototipos de nuevos algoritmos híbridos de aprendizaje automático cuántico-clásico. Esta biblioteca ampliará el alcance del ML actual bajo TensorFlow y proporciona la caja de herramientas necesaria para reunir a las comunidades de investigación de computación cuántica y aprendizaje automático para controlar y modelar datos cuánticos. | Masud Mohseni |
16:45 | Anuncios de cierre |