บทช่วยสอนการประมวลผลข้อความ TensorFlow ให้คำแนะนำทีละขั้นตอนสำหรับการแก้ปัญหาข้อความทั่วไปและการประมวลผลภาษาธรรมชาติ (NLP)
TensorFlow นำเสนอสองโซลูชันสำหรับการประมวลผลข้อความและภาษาธรรมชาติ ได้แก่ KerasNLP และ TensorFlow Text KerasNLP เป็นไลบรารี NLP ระดับสูงที่มีโมเดลที่ใช้ Transformer ล่าสุดทั้งหมด ตลอดจนยูทิลิตีโทเค็นระดับล่าง เป็นวิธีแก้ปัญหาที่แนะนำสำหรับกรณีการใช้งาน NLP ส่วนใหญ่
หากคุณต้องการเข้าถึงเครื่องมือประมวลผลข้อความระดับล่าง คุณสามารถใช้ TensorFlow Text ได้ TensorFlow Text มอบคอลเล็กชันของ ops และไลบรารีเพื่อช่วยให้คุณทำงานกับอินพุตในรูปแบบข้อความ เช่น สตริงข้อความดิบหรือเอกสาร
KerasNLP
- เริ่มต้นใช้งาน KerasNLP : เรียนรู้ KerasNLP โดยทำการวิเคราะห์ความรู้สึกที่ระดับความซับซ้อนที่ก้าวหน้า ตั้งแต่การใช้แบบจำลองที่ได้รับการฝึกอบรมล่วงหน้าไปจนถึงการสร้าง Transformer ของคุณเองตั้งแต่เริ่มต้น
การสร้างข้อความ
- การสร้างข้อความด้วย RNN : สร้างข้อความโดยใช้ RNN แบบอักขระและชุดข้อมูลของงานเขียนของเชกสเปียร์
- การแปลด้วยเครื่องประสาทด้วยความสนใจ : ฝึกแบบจำลองลำดับต่อลำดับ (seq2seq) สำหรับการแปลภาษาสเปนเป็นภาษาอังกฤษ
- การแปลด้วยเครื่องประสาทด้วย Transformer และ Keras : สร้างและฝึกโมเดล Transformer แบบลำดับต่อลำดับเพื่อแปลภาษาโปรตุเกสเป็นภาษาอังกฤษ
- คำบรรยายภาพด้วยความสนใจด้วยภาพ : สร้างคำบรรยายภาพโดยใช้โมเดลตัวถอดรหัส Transformer ที่สร้างขึ้นด้วยเลเยอร์ความสนใจ
การจำแนกข้อความ
- จัดประเภทข้อความด้วย BERT : ปรับแต่ง BERT อย่างละเอียดเพื่อทำการวิเคราะห์ความรู้สึกในชุดข้อมูลบทวิจารณ์ภาพยนตร์ IMDb แบบข้อความล้วน
- การจัดหมวดหมู่ข้อความด้วย RNN : ฝึก RNN เพื่อทำการวิเคราะห์ความคิดเห็นเกี่ยวกับบทวิจารณ์ภาพยนตร์ IMDb
- TF.Text Metrics : เรียนรู้เกี่ยวกับเมตริกที่มีให้ผ่าน TensorFlow Text ไลบรารีมีการใช้งานเมตริกความคล้ายคลึงของข้อความ เช่น ROUGE-L ซึ่งสามารถใช้สำหรับการประเมินโมเดลการสร้างข้อความโดยอัตโนมัติ
NLP กับ BERT
- แก้ไขงาน GLUE โดยใช้ BERT บน TPU : เรียนรู้วิธีปรับแต่ง BERT สำหรับงานต่างๆ จาก มาตรฐาน GLUE
- ปรับแต่งโมเดล BERT อย่างละเอียด : ปรับแต่งโมเดล BERT อย่างละเอียดโดยใช้ TensorFlow Model Garden
- การเรียนรู้ภาษาเชิงลึกที่ไม่แน่นอนด้วย BERT-SNGP : ใช้ SNGP กับงานการทำความเข้าใจภาษาธรรมชาติ (NLU) สร้างจากตัวเข้ารหัส BERT คุณจะปรับปรุงความสามารถของโมเดล NLU ในการตรวจจับการสืบค้นที่อยู่นอกขอบเขต
การฝัง
- การฝังคำ : ฝึกฝนการฝังคำของคุณเองโดยใช้โมเดล Keras อย่างง่ายสำหรับงานจัดประเภทความรู้สึก จากนั้นแสดงภาพโดยใช้ Embedding Projector
- เมทริกซ์เลเยอร์การฝังเริ่มต้นแบบอุ่นเครื่อง : เรียนรู้วิธีการฝึกอบรม "อุ่นเครื่อง" สำหรับแบบจำลองการจัดประเภทความรู้สึกทางข้อความ
- word2vec : ฝึกโมเดล word2vec ในชุดข้อมูลขนาดเล็กและแสดงภาพการฝังที่ผ่านการฝึกอบรมใน Embedding Projector