Agenda 2020
9:00 DEL MATTINO | Inizia la diretta | |
9:30 DEL MATTINO | Nota chiave | Megan Kacholia Kemal El Moujahid Manasi Joshi |
9:55 | Imparare a leggere con TensorFlow e Keras L'elaborazione del linguaggio naturale (NLP) ha raggiunto un punto di svolta e questo discorso mostra come TensorFlow e Keras semplifichino la preelaborazione, il training e l'iperottimizzazione dei modelli di testo. | Paige Bailey |
10:15 | TensorFlow Hub: semplificare la scoperta del modello TF Hub è il repository principale per i modelli ML. Questo discorso esamina tutte le nuove funzionalità e come possono rendere il tuo viaggio di scoperta del modello ancora migliore. | Sandeep Gupta |
10:25 | ML collaborativo con TensorBoard.dev La condivisione dei risultati dell'esperimento è una parte importante del processo ML. Questo discorso mostra come TensorBoard.dev può abilitare il ML collaborativo semplificando la condivisione dei risultati degli esperimenti in articoli, post di blog, social media e altro ancora. | Gal Oshri |
10:30 | Transizione di Kaggler in TPU con TF 2.x Di recente, Kaggle ha introdotto il supporto TPU attraverso la sua piattaforma della concorrenza. Questo discorso tocca il modo in cui i concorrenti di Kaggler sono passati dall'uso della GPU all'uso della TPU, prima in Colab e poi nei notebook Kaggle. | Julia Elliott |
10:35 | Profilazione delle prestazioni in TF 2 Questo discorso presenta un profiler che Google utilizza internamente per studiare le prestazioni di TF su piattaforme tra cui GPU, TPU e CPU. | Qiumin Xu | 10:45 | Potenziale blocco di domande e risposte Sfrutta la funzione LiveChat nel live streaming poiché i membri del team TensorFlow risponderanno nella chat in tempo reale. Se avessimo più tempo nel livestream, risponderemo ad alcune domande dal vivo. | Tutti i relatori finora |
10:55 | Rompere | |
11:20 | Ricerca con TensorFlow In questo discorso esamineremo alcune caratteristiche interessanti di TF che sono utili quando si fa ricerca. | Alessandro Passos |
11:35 | Strati di ottimizzazione convessi differenziabili I problemi di ottimizzazione convessa vengono utilizzati per risolvere molti problemi nel mondo reale. Finora, è stato difficile utilizzarli nelle pipeline TensorFlow. Questo discorso presenta cvxpylayers, un pacchetto che semplifica l'integrazione di problemi di ottimizzazione convessi in TensorFlow, consentendoti di ottimizzarli utilizzando la discesa del gradiente. | Akshay Agrawal, Università di Stanford |
11:40 | Ridimensionamento dell'elaborazione dei dati di Tensorflow con tf.data Man mano che l'addestramento del modello diventa di natura più distribuito, tf.data si è evoluto per essere più consapevole e performante della distribuzione. Questo discorso presenta gli strumenti tf.data per il ridimensionamento dell'elaborazione dei dati TensorFlow. In particolare: servizio tf.data che consente alla pipeline tf.data di essere eseguita su un cluster di macchine e tf.data.snapshot che materializza i risultati su disco per il riutilizzo su più invocazioni. | Rohan Jain |
11:55 | Ridimensionamento dei modelli TensorFlow 2 su GPU multi-worker Questo discorso mostra molteplici miglioramenti delle prestazioni in TensorFlow 2.2 per accelerare e scalare il carico di lavoro di formazione ML degli utenti in multi-GPU multi-lavoratore. Esaminiamo le ottimizzazioni utilizzando un'attività di messa a punto BERT nel giardino del modello TF, scritta utilizzando un ciclo di formazione personalizzato. | Zongwei Zhou |
12:10 | Sfruttare al meglio Colab Scopri suggerimenti e trucchi dal team Colab. Questo discorso descrive come gli utenti di TensorFlow traggono il massimo da Colab e sbircia dietro le quinte per vedere come funziona Colab. | Timothy Novikoff |
12:15 | TensorFlow e Machine Learning dalle trincee: l'Innovation Experience Center presso il Jet Propulsion Laboratory Chris Mattmann spiegherà come l'Innovation Experience Center di JPL nell'ufficio del Chief Information Officer supporta analisi avanzate, intelligenza artificiale e machine learning utilizzando TensorFlow per Smarter Rover, un campus più intelligente e oltre! | Chris Mattmann, NASA |
12:25 | Potenziale blocco di domande e risposte Sfrutta la funzione LiveChat nel live streaming poiché i membri del team TensorFlow risponderanno nella chat in tempo reale. Se avessimo più tempo nel livestream, risponderemo ad alcune domande dal vivo. | Relatori dalla pausa in poi |
12:35 | Rompere | |
13:40 | MLIR: Accelerare TF con i compilatori Questo discorso descriverà l'MLIR - l'infrastruttura del compilatore di machine learning per TensorFlow e spiegherà come aiuta TensorFlow a scalare più velocemente per soddisfare le esigenze di software e hardware di machine learning in rapida evoluzione. | Jacques Pienaar |
13:50 | TFRT: un nuovo runtime TensorFlow TFRT è un nuovo runtime per TensorFlow. Sfruttando MLIR, mira a fornire un livello di infrastruttura unificato ed estensibile con le migliori prestazioni della categoria su un'ampia varietà di hardware specifico del dominio. Questo approccio fornisce un uso efficiente delle CPU host multithread, supporta modelli di programmazione completamente asincroni ed è incentrato sull'efficienza di basso livello. | Mingsheng Hong |
14:00 | TFX: Produzione ML con TensorFlow nel 2020 Scopri come sta cambiando la piattaforma ML di produzione di Google, TFX, nel 2020. | Tris Warkentin Zhitao Li |
14:25 | TensorFlow Enterprise: produzione di TensorFlow con Google Cloud TensorFlow Enterprise prepara le tue applicazioni TensorFlow enterprise, con una serie di miglioramenti a TensorFlow su Google Cloud. Sblocca dati e modelli su scala cloud, semplificando al contempo lo sviluppo di applicazioni ML business-critical dal prototipo alla produzione. Insieme, risolviamo la parte più difficile del ML aziendale nella produzione. | Makoto Uchida |
14:35 | TensorFlow Lite: ML per dispositivi mobili e IoT Scopri come distribuire ML su telefoni cellulari e dispositivi incorporati. Ora distribuito su miliardi di dispositivi in produzione, è il miglior framework ML multipiattaforma al mondo per dispositivi mobili e microcontroller. Sintonizzati per i nostri nuovi entusiasmanti annunci. | Tim Davis TJ Alumbaugh |
14:55 | Jacquard: incorporare perfettamente ML negli oggetti di uso quotidiano Jacquard è una piattaforma di elaborazione ambientale basata su ML che prende oggetti comuni e familiari e li migliora con nuove abilità ed esperienze digitali, pur rimanendo fedele al loro scopo originale. Descriveremo come abbiamo addestrato e implementato modelli di machine learning con risorse limitate che si integrano perfettamente negli indumenti e negli accessori di tutti i giorni; come la tua giacca preferita, lo zaino o un paio di scarpe che ami indossare. | Nicola Gillian |
15:05 | TensorFlow.js: Machine Learning per il Web e oltre TensorFlow.js è una piattaforma per l'addestramento e la distribuzione di modelli di machine learning nei browser o ovunque sia possibile eseguire Javascript, come dispositivi mobili, piattaforma mini app WeChat e Raspberry Pi. Fornisce diversi back-end, inclusi CPU, GPU, Node e back-end WASM. Fornisce inoltre una raccolta di modelli pre-addestrati, comprese le due ultime aggiunte: MobileBERT e FaceMesh. | Na Li |
15:15 | Potenziale blocco di domande e risposte Sfrutta la funzione LiveChat nel live streaming poiché i membri del team TensorFlow risponderanno nella chat in tempo reale. Se avessimo più tempo nel livestream, risponderemo ad alcune domande dal vivo. | I relatori dalla pausa in poi |
15:25 | Rompere | |
15:45 | Entrare a far parte della comunità TF Scopri come puoi far parte del crescente ecosistema TensorFlow e diventare un collaboratore attraverso codice, documentazione, istruzione o leadership della comunità. | Joana Carraqueira |
15:55 | Intelligenza artificiale responsabile con TensorFlow: equità e privacy Presentazione di un framework per pensare a ML, equità e privacy. Questo discorso proporrà un flusso di lavoro ML consapevole dell'equità, illustrerà come gli strumenti TensorFlow come gli indicatori di equità possono essere utilizzati per rilevare e mitigare i pregiudizi e quindi passerà a un caso di studio specifico sulla privacy che guiderà i partecipanti attraverso un paio di pezzi dell'infrastruttura che può aiutare ad addestrare un modello in modo da preservare la privacy. | Caterina Xu Miguel Guevara |
16:20 | TensorFlow Quantum: una piattaforma software per l'apprendimento automatico ibrido quantistico-classico Introduciamo TensorFlow Quantum, una libreria open source per la prototipazione rapida di nuovi algoritmi ML ibridi quantistici-classici. Questa libreria estenderà l'ambito dell'attuale ML in TensorFlow e fornisce la cassetta degli attrezzi necessaria per riunire le comunità di ricerca sull'informatica quantistica e sull'apprendimento automatico per controllare e modellare i dati quantistici. | Masoud Mohseni |
16:45 | Annunci di chiusura |