วาระการประชุมประจำปี 2563
9:00 น. | เริ่มถ่ายทอดสด | |
9:30 น. | ประเด็นสำคัญ | Megan Kacholia เคมาล เอล มูจาฮิด มานาซี โจชิ |
09:55 น. | เรียนรู้ที่จะอ่านด้วย TensorFlow และ Keras การประมวลผลภาษาธรรมชาติ (NLP) มาถึงจุดเปลี่ยนแล้ว และการพูดคุยนี้จะแสดงให้คุณเห็นว่า TensorFlow และ Keras ช่วยให้ประมวลผลล่วงหน้า ฝึกฝน และปรับแต่งโมเดลข้อความไฮเปอร์จูนได้ง่ายเพียงใด | Paige Bailey |
10:15 น. | TensorFlow Hub: ทำให้การค้นหาแบบจำลองเป็นเรื่องง่าย TF Hub เป็นที่เก็บหลักสำหรับโมเดล ML การพูดคุยนี้จะกล่าวถึงคุณลักษณะใหม่ทั้งหมดและวิธีที่สิ่งเหล่านี้จะทำให้เส้นทางการค้นพบแบบจำลองของคุณดียิ่งขึ้น | แสนดี คุปตะ |
10:25 น. | ML ที่ทำงานร่วมกันกับ TensorBoard.dev การแชร์ผลการทดสอบเป็นส่วนสำคัญของกระบวนการ ML การพูดคุยนี้แสดงให้เห็นว่า TensorBoard.dev สามารถเปิดใช้งาน ML ที่ทำงานร่วมกันได้อย่างไร โดยทำให้ง่ายต่อการแชร์ผลการทดสอบในบทความ บล็อกโพสต์ โซเชียลมีเดีย และอื่นๆ | Gal Oshri |
10:30 น. | การเปลี่ยน Kagglers เป็น TPU ด้วย TF 2.x เมื่อเร็ว ๆ นี้ Kaggle ได้เปิดตัวการรองรับ TPU ผ่านแพลตฟอร์มการแข่งขัน การสนทนานี้กล่าวถึงวิธีที่คู่แข่งของ Kaggler เปลี่ยนจากการใช้ GPU เป็น TPU ครั้งแรกใน Colab และจากนั้นในโน้ตบุ๊ก Kaggle | Julia Elliott |
10:35 น. | โปรไฟล์ประสิทธิภาพใน TF 2 การเสวนานี้นำเสนอผู้สร้างโปรไฟล์ที่ Google ใช้ภายในเพื่อตรวจสอบประสิทธิภาพ TF บนแพลตฟอร์มต่างๆ รวมถึง GPU, TPU และ CPU | Qiumin Xu | 10:45 น. | บล็อกถาม & ตอบที่เป็นไปได้ โปรดใช้ประโยชน์จากฟีเจอร์ LiveChat ในสตรีมสด เนื่องจากเราจะให้สมาชิกทีม TensorFlow ตอบกลับในการแชทแบบเรียลไทม์ หากเรามีเวลาเพิ่มเติมในการสตรีมสด เราจะตอบคำถามสองสามข้อแบบสดๆ | ลำโพงทั้งหมดจนถึงตอนนี้ |
10:55 น. | หยุดพัก | |
11:20 น. | วิจัยกับ TensorFlow ในการบรรยายนี้ เราจะพูดถึงคุณสมบัติที่น่าสนใจของ TF ซึ่งมีประโยชน์เมื่อทำการค้นคว้า | อเล็กซองเดร พาสซอส |
11:35 น. | เลเยอร์การเพิ่มประสิทธิภาพนูนที่แตกต่างกัน ปัญหาการเพิ่มประสิทธิภาพนูนใช้เพื่อแก้ปัญหามากมายในโลกแห่งความเป็นจริง จนถึงขณะนี้ การใช้งานในท่อส่ง TensorFlow นั้นทำได้ยาก การบรรยายนี้จะนำเสนอ cvxpylayers ซึ่งเป็นแพ็คเกจที่ทำให้ง่ายต่อการฝังปัญหาการเพิ่มประสิทธิภาพนูนลงใน TensorFlow เพื่อให้คุณปรับแต่งได้โดยใช้การไล่ระดับสี | Akshay Agrawal มหาวิทยาลัยสแตนฟอร์ด |
11:40 น. | ปรับขนาดการประมวลผลข้อมูล Tensorflow ด้วย tf.data เนื่องจากการฝึกโมเดลมีการกระจายมากขึ้นโดยธรรมชาติ tf.data จึงมีการพัฒนาให้มีความตระหนักและประสิทธิภาพในการกระจายมากขึ้น การบรรยายนี้นำเสนอเครื่องมือ tf.data สำหรับปรับขนาดการประมวลผลข้อมูล TensorFlow โดยเฉพาะอย่างยิ่ง: บริการ tf.data ที่อนุญาตให้ไปป์ไลน์ tf.data ของคุณทำงานบนคลัสเตอร์ของเครื่อง และ tf.data.snapshot ที่ทำให้ผลลัพธ์เป็นจริงในดิสก์เพื่อนำกลับมาใช้ใหม่ในการเรียกใช้หลายครั้ง | Rohan Jain |
11:55 น. | ปรับขนาดโมเดล TensorFlow 2 เป็น GPU แบบหลายคน การพูดคุยนี้แสดงการปรับปรุงประสิทธิภาพหลายอย่างใน TensorFlow 2.2 เพื่อเร่งความเร็วและปรับขนาดเวิร์กโหลดการฝึกอบรม ML ของผู้ใช้เป็น GPU แบบหลายผู้ปฏิบัติงานหลายคน เราดำเนินการปรับแต่งให้เหมาะสมโดยใช้งานปรับแต่งของ BERT ในสวนแบบจำลอง TF ซึ่งเขียนโดยใช้ลูปการฝึกอบรมแบบกำหนดเอง | จงเว่ยโจว |
12:10 น. | ใช้ประโยชน์สูงสุดจาก Colab เรียนรู้กลเม็ดเคล็ดลับจากทีม Colab การพูดคุยนี้จะอธิบายวิธีที่ผู้ใช้ TensorFlow ใช้ประโยชน์สูงสุดจาก Colab และแอบดูเบื้องหลังเพื่อดูว่า Colab ทำงานอย่างไร | ทิโมธี โนวิคอฟ |
12:15 น. | TensorFlow และ Machine Learning จากร่องลึก: The Innovation Experience Center at the Jet Propulsion Laboratory Chris Mattmann จะอธิบายวิธีที่ศูนย์ประสบการณ์นวัตกรรมของ JPL ในสำนักงานของ Chief Information Officer รองรับการวิเคราะห์ขั้นสูง, AI และการเรียนรู้ของเครื่องโดยใช้ TensorFlow สำหรับ Smarter Rovers, Smarter Campus และอื่นๆ! | Chris Mattmann, NASA |
12:25 น. | บล็อกถาม & ตอบที่เป็นไปได้ โปรดใช้ประโยชน์จากฟีเจอร์ LiveChat ในสตรีมสด เนื่องจากเราจะให้สมาชิกทีม TensorFlow ตอบกลับในการแชทแบบเรียลไทม์ หากเรามีเวลาเพิ่มเติมในการสตรีมสด เราจะตอบคำถามสองสามข้อแบบสดๆ | วิทยากรตั้งแต่ช่วงพักเป็นต้นไป |
12:35 น. | หยุดพัก | |
13:40 น. | MLIR: เร่ง TF ด้วยคอมไพเลอร์ การพูดคุยนี้จะอธิบาย MLIR - โครงสร้างพื้นฐานคอมไพเลอร์การเรียนรู้ของเครื่องสำหรับ TensorFlow และอธิบายวิธีที่ช่วยให้ TensorFlow ปรับขนาดได้เร็วขึ้น เพื่อตอบสนองความต้องการของซอฟต์แวร์และฮาร์ดแวร์การเรียนรู้ของเครื่องที่พัฒนาอย่างรวดเร็ว | Jacques Pienaar |
13:50 น. | TFRT: รันไทม์ TensorFlow ใหม่ TFRT เป็นรันไทม์ใหม่สำหรับ TensorFlow การใช้ประโยชน์จาก MLIR มีจุดมุ่งหมายเพื่อมอบเลเยอร์โครงสร้างพื้นฐานแบบรวมเป็นหนึ่งเดียวและขยายได้ โดยมีประสิทธิภาพที่ดีที่สุดในระดับเดียวกันในฮาร์ดแวร์เฉพาะโดเมนที่หลากหลาย แนวทางนี้ให้การใช้งาน CPU โฮสต์แบบมัลติเธรดอย่างมีประสิทธิภาพ รองรับโมเดลการเขียนโปรแกรมแบบอะซิงโครนัสอย่างสมบูรณ์ และเน้นที่ประสิทธิภาพระดับต่ำ | Mingsheng Hong |
14:00 น. | TFX: ML การผลิตด้วย TensorFlow ในปี 2020 เรียนรู้ว่า TFX แพลตฟอร์ม ML ที่ใช้งานจริงของ Google เปลี่ยนแปลงไปอย่างไรในปี 2020 | Tris Warkentin จือเทา หลี่ |
14:25 น. | TensorFlow Enterprise: การผลิต TensorFlow ด้วย Google Cloud TensorFlow Enterprise ทำให้องค์กรแอปพลิเคชัน TensorFlow ของคุณพร้อมใช้งาน ด้วยการปรับปรุง TensorFlow จำนวนมากบน Google Cloud โดยจะปลดล็อกข้อมูลและโมเดลสเกลบนคลาวด์ ในขณะเดียวกันก็ทำให้การพัฒนาแอปพลิเคชัน ML ที่สำคัญต่อธุรกิจทำได้ง่ายขึ้นตั้งแต่ต้นแบบไปจนถึงการผลิต เราแก้ปัญหาส่วนที่ยากที่สุดของ ML ระดับองค์กรในการผลิตร่วมกัน | มาโกโตะ อูชิดะ |
14:35 น. | TensorFlow Lite: ML สำหรับอุปกรณ์เคลื่อนที่และอุปกรณ์ IoT เรียนรู้เกี่ยวกับวิธีการปรับใช้ ML กับโทรศัพท์มือถือและอุปกรณ์ฝังตัว ขณะนี้ ปรับใช้กับอุปกรณ์หลายพันล้านเครื่องในการผลิต ซึ่งเป็นเฟรมเวิร์ก ML ข้ามแพลตฟอร์มที่ดีที่สุดในโลกสำหรับอุปกรณ์เคลื่อนที่และไมโครคอนโทรลเลอร์ ติดตามประกาศใหม่ที่น่าตื่นเต้นของเรา | ทิม เดวิส TJ Alumbaugh |
14:55 น. | Jacquard: การฝัง ML อย่างราบรื่นในออบเจกต์ประจำวัน Jacquard เป็นแพลตฟอร์มคอมพิวเตอร์แอมเบียนท์ที่ใช้ ML ซึ่งนำวัตถุธรรมดาที่คุ้นเคยมาและปรับปรุงด้วยความสามารถและประสบการณ์ดิจิทัลใหม่ ๆ โดยยังคงไว้ซึ่งจุดประสงค์ดั้งเดิม เราจะอธิบายวิธีที่เราฝึกอบรมและปรับใช้โมเดลการเรียนรู้ของเครื่องที่จำกัดทรัพยากร ซึ่งฝังอยู่ในเสื้อผ้าและอุปกรณ์เสริมในชีวิตประจำวันอย่างราบรื่น เช่น เสื้อแจ็คเก็ต กระเป๋าเป้ หรือรองเท้าที่คุณชอบใส่ | Nicholas Gillian |
15:05 น. | TensorFlow.js: แมชชีนเลิร์นนิงสำหรับเว็บและอื่น ๆ TensorFlow.js เป็นแพลตฟอร์มสำหรับการฝึกอบรมและปรับใช้โมเดลการเรียนรู้ของเครื่องในเบราว์เซอร์ หรือที่ใดก็ตามที่ Javascript สามารถทำงานได้ เช่น อุปกรณ์มือถือ แพลตฟอร์มแอป WeChat ขนาดเล็ก และ Raspberry Pi มีแบ็กเอนด์หลายตัว รวมถึง CPU, GPU, Node และ WASM แบ็กเอนด์ นอกจากนี้ยังมีคอลเลกชั่นของโมเดลที่ได้รับการฝึกฝน ซึ่งรวมถึงรุ่นใหม่ล่าสุดสองรุ่น ได้แก่ MobileBERT และ FaceMesh | นาหลี่ |
15:15 น. | บล็อกถาม & ตอบที่เป็นไปได้ โปรดใช้ประโยชน์จากฟีเจอร์ LiveChat ในสตรีมสด เนื่องจากเราจะให้สมาชิกทีม TensorFlow ตอบกลับในการแชทแบบเรียลไทม์ หากเรามีเวลาเพิ่มเติมในการสตรีมสด เราจะตอบคำถามสองสามข้อแบบสดๆ | วิทยากรตั้งแต่ช่วงพักเป็นต้นไป |
15:25 น. | หยุดพัก | |
15:45 น. | มีส่วนร่วมในชุมชน TF เรียนรู้วิธีที่คุณสามารถเป็นส่วนหนึ่งของระบบนิเวศ TensorFlow ที่กำลังเติบโตและเป็นผู้มีส่วนร่วมผ่านโค้ด เอกสารประกอบ การศึกษา หรือความเป็นผู้นำในชุมชน | Joana Carraqueira |
15:55 น. | AI ที่มีความรับผิดชอบด้วย TensorFlow: ความเป็นธรรมและความเป็นส่วนตัว แนะนำกรอบความคิดเกี่ยวกับ ML ความเป็นธรรม และความเป็นส่วนตัว การพูดคุยนี้จะเสนอเวิร์กโฟลว์ ML ที่คำนึงถึงความเป็นธรรม แสดงให้เห็นว่าเครื่องมือ TensorFlow เช่น Fairness Indicators สามารถใช้ตรวจจับและลดอคติได้อย่างไร จากนั้นจะเปลี่ยนไปเป็นกรณีศึกษาเฉพาะเกี่ยวกับความเป็นส่วนตัว ซึ่งจะแนะนำผู้เข้าร่วมผ่านโครงสร้างพื้นฐานสองสามส่วน ที่สามารถช่วยฝึกโมเดลในลักษณะการรักษาความเป็นส่วนตัวได้ | Catherina Xu มิเกล เกวารา |
16:20 น. | TensorFlow Quantum: แพลตฟอร์มซอฟต์แวร์สำหรับ Hybrid Quantum-Classical Machine Learning เราขอแนะนำ TensorFlow Quantum ซึ่งเป็นไลบรารีโอเพนซอร์สสำหรับการสร้างต้นแบบอย่างรวดเร็วของอัลกอริธึม ML ควอนตัมคลาสสิกแบบไฮบริดแบบใหม่ ไลบรารีนี้จะขยายขอบเขตของ ML ปัจจุบันภายใต้ TensorFlow และจัดเตรียมกล่องเครื่องมือที่จำเป็นสำหรับการนำคอมพิวเตอร์ควอนตัมและชุมชนการวิจัยแมชชีนเลิร์นนิงมารวมกันเพื่อควบคุมและสร้างแบบจำลองข้อมูลควอนตัม | Masoud Mohseni |
16:45 น. | ประกาศปิดทำการ |