หลัก นวัตกรรม Google AI ให้ผู้ใช้แปลข้อความใน 27 ภาษาได้ทันทีด้วยกล้องโทรศัพท์

Google AI ให้ผู้ใช้แปลข้อความใน 27 ภาษาได้ทันทีด้วยกล้องโทรศัพท์

ภาพยนตร์เรื่องไหนที่จะดู?
 
(Gif: Google)

(Gif: Google)



ต้องขอบคุณปัญญาประดิษฐ์ การเดินทางไปต่างประเทศไม่เคยง่ายอย่างนี้มาก่อน

แอป Google Translate ให้ผู้ใช้แปลข้อความได้ทันที ในแอป เพียงเล็งกล้องไปที่ข้อความที่คุณต้องการแปล แล้วคุณจะเห็นข้อความนั้นแปลงเป็นภาษาที่คุณต้องการแบบสดๆ ต่อหน้าต่อตาคุณ ไม่จำเป็นต้องมีการเชื่อมต่ออินเทอร์เน็ตหรือข้อมูลโทรศัพท์มือถือ คุณลักษณะที่มีประโยชน์นี้มีให้ใช้งานมาระยะหนึ่งแล้ว แต่ใช้งานได้กับเจ็ดภาษาเท่านั้น ตอนนี้ ต้องขอบคุณแมชชีนเลิร์นนิง Google ได้อัปเกรดแอปเพื่อแปลภาษา 27 ภาษาในทันที

ดังนั้นครั้งต่อไปที่คุณอยู่ในปรากและไม่สามารถอ่านเมนูได้ เรายินดีช่วย Otavio Good วิศวกรซอฟต์แวร์ของ Google เขียนไว้ในงานวิจัยของบริษัท บล็อก .

Google ยังใช้ AI เพื่อลดข้อผิดพลาดในการรู้จำคำพูดของพวกเขาให้เหลือครึ่งหนึ่ง

ณ วันนี้ นอกจากการแปลระหว่างภาษาอังกฤษ ฝรั่งเศส เยอรมัน อิตาลี โปรตุเกส รัสเซีย และสเปน แล้ว 20 ภาษาต่อไปนี้สามารถแปลแบบเรียลไทม์ได้เช่นกัน: บัลแกเรีย คาตาลัน โครเอเชีย เช็ก เดนมาร์ก ดัตช์ ฟิลิปปินส์ ฟินแลนด์ ฮังการี ชาวอินโดนีเซีย ลิทัวเนีย นอร์เวย์ โปแลนด์ โรมาเนีย สโลวัก สวีเดน ตุรกี และยูเครน และหากคุณเลือกที่จะถ่ายภาพแทนการดูการแปลข้อความแบบสด รองรับทั้งหมด 37 ภาษา

แล้ว Google สามารถเพิ่มจำนวนภาษาที่มีอยู่ได้อย่างไร? พวกเขาซื้อ Word Lens มาเป็นครั้งแรก ซึ่งเดิมคือแอปพลิเคชันการแปลความเป็นจริงเสริม และใช้การเรียนรู้ของเครื่องและเครือข่ายประสาทเทียมเพื่อปรับปรุงความสามารถของแอป ความก้าวหน้าในการจดจำภาพเป็นสิ่งสำคัญ

5 ปีที่แล้ว ถ้าคุณให้คอมพิวเตอร์รูปแมวหรือสุนัข มันบอกไม่ได้ว่าอันไหนเป็นรูปอะไร ต้องขอบคุณโครงข่ายประสาทที่บิดเบี้ยว ไม่เพียงแต่คอมพิวเตอร์สามารถบอกความแตกต่างระหว่างแมวกับสุนัขได้เท่านั้น แต่ยังรู้จักสุนัขสายพันธุ์ต่างๆ อีกด้วย Mr. Good กล่าว ใช่ มันดีมากกว่าแค่ ทริปปี้อาร์ต —หากคุณกำลังแปลเมนูภาษาต่างประเทศหรือลงชื่อด้วยแอปแปลภาษาของ Google เวอร์ชันล่าสุด แสดงว่าคุณกำลังใช้โครงข่ายประสาทลึก

เป็นขั้นเป็นตอน

ก่อน , การแปลจะต้องขจัดความยุ่งเหยิงในพื้นหลังและค้นหาข้อความ เมื่อระบุตำแหน่งหยดพิกเซลที่มีสีเดียวกัน จะเป็นตัวกำหนดว่าเป็นตัวอักษร และเมื่อ Blobs เหล่านั้นอยู่ใกล้กันก็จะเข้าใจว่าเป็นบรรทัดที่อ่านต่อเนื่อง

ต่อไป, แอพต้องจดจำว่าตัวอักษรแต่ละตัวคืออะไร นี่คือที่มาของการเรียนรู้เชิงลึก

เราใช้โครงข่ายประสาทเทียม ฝึกอบรมเกี่ยวกับตัวอักษรและไม่ใช่ตัวอักษร เพื่อให้สามารถเรียนรู้ว่าตัวอักษรต่างๆ มีลักษณะอย่างไร อ่านบล็อกโพสต์

นักวิจัยต้องฝึกซอฟต์แวร์โดยใช้ตัวอักษรที่ไม่สะอาดเพียงอย่างเดียว แต่ต้องใช้ตัวอักษรที่สกปรกด้วย จดหมายที่ออกมาในโลกแห่งความเป็นจริงนั้นเต็มไปด้วยเงาสะท้อน สิ่งสกปรก รอยเปื้อน และความแปลกประหลาดต่างๆ นานา นายกู๊ดเขียนไว้ ดังนั้นเราจึงสร้างเครื่องกำเนิดจดหมายเพื่อสร้างสิ่งสกปรกปลอมทุกชนิดเพื่อเลียนแบบเสียงอึกทึกของโลกแห่งความเป็นจริงอย่างเชื่อได้—ภาพสะท้อนปลอม, รอยเปื้อนปลอม, ความแปลกประหลาดปลอมๆ รอบตัว บางส่วนของ

จดหมายสกปรกบางฉบับที่ใช้สำหรับการฝึกอบรม (รูปภาพ: Google)








ที่สาม ขั้นตอนคือการค้นหาตัวอักษรที่รู้จักในพจนานุกรมเพื่อรับคำแปล และสำหรับความพยายามเพิ่มเติมในความแม่นยำ การค้นหาพจนานุกรมจะเป็นการประมาณในกรณีที่ S ถูกอ่านผิดเป็น 5

สุดท้ายนี้ ข้อความที่แปลจะถูกแสดงทับต้นฉบับในสไตล์เดียวกัน

เราสามารถทำได้เพราะเราพบและอ่านตัวอักษรในภาพแล้ว เราจึงรู้ว่ามันอยู่ที่ไหน เราสามารถดูสีรอบๆ ตัวอักษรและใช้เพื่อลบตัวอักษรเดิมได้ จากนั้นเราสามารถวาดการแปลไว้ด้านบนโดยใช้สีพื้นหน้าเดิมที่โพสต์ในบล็อกอ่าน

ทีม Google ได้พัฒนาโครงข่ายประสาทเทียมขนาดเล็กมาก โดยให้ความหนาแน่นของข้อมูลสูงเพื่อให้มีประสิทธิภาพมากที่สุดและช่วยให้ขั้นตอนเหล่านี้เสร็จสิ้นในแบบเรียลไทม์โดยไม่ต้องเชื่อมต่ออินเทอร์เน็ตหรือข้อมูล เนื่องจากพวกเขากำลังสร้างข้อมูลการฝึกอบรมของตนเอง จึงเป็นสิ่งสำคัญที่จะรวมข้อมูลที่ถูกต้องแต่ไม่มีอะไรเพิ่มเติม ดังนั้นโครงข่ายประสาทเทียมจึงไม่ได้ใช้ความหนาแน่นของข้อมูลมากเกินไปกับสิ่งที่ไม่สำคัญ ตัวอย่างจะเป็นวิธีการจำตัวอักษรที่มีการหมุนเวียนเล็กน้อย แต่ไม่มากเกินไป

ในท้ายที่สุด ผู้ใช้จะเหลืออีก 20 ภาษา แต่ความเร็วที่เร็วเท่าเดิม

ดูเพิ่มเติม: ทีมงาน AI ของ Google ให้ข้อมูลด้านการวิจัยแมชชีนเลิร์นนิงต่ำแก่เรา

บทความที่คุณอาจชอบ :