Oticon Series ตอนที่ 2 เมื่อ AI กลายเป็นสมองส่วนขยายในหูคุณ

Facebook
Twitter
LinkedIn
Pinterest

เจาะลึก Deep Neural Network (DNN) ทำไม Oticon ถึงต้องฝึก AI ด้วยเสียงกว่า 12 ล้านฉากทัศน์?

พอกันทีกับระบบตัดเสียงรบกวนแบบเดิมๆ ในอดีต เครื่องช่วยฟังจะใช้วิธี “เดา” ว่าเสียงไหนคือเสียงพูดแล้วขยายเสียงนั้น ส่วนเสียงที่เหลือจะถูก “กด” ให้เบาลง ผลที่ได้คือเสียงที่ฟังดูอึดอัดและไม่เป็นธรรมชาติ แต่ Oticon เปลี่ยนเกมใหม่ด้วยการนำ Deep Neural Network (DNN) มาใช้


DNN คืออะไร? และทำไมต้อง 12 ล้านฉากทัศน์?
DNN คือ AI ประเภทหนึ่งที่จำลองการทำงานของโครงข่ายประสาทในสมองมนุษย์ Oticon ได้ทำการบันทึกเสียงจาก “โลกแห่งความเป็นจริง” กว่า 12 ล้านสถานการณ์ ทั้งในร้านอาหารที่วุ่นวาย บนถนน หรือในห้องประชุม แล้วนำมาสอน AI ตัวนี้ให้รู้จักแยกแยะว่า

  • เสียงไหนคือเสียงพูดที่สำคัญ

  • เสียงไหนคือเสียงพื้นหลังที่ช่วยให้รับรู้บรรยากาศ

  • เสียงไหนคือเสียงรบกวนที่ต้องจัดการ

การทำงานที่แม่นยำระดับเสี้ยววินาที เมื่อคุณสวมเครื่องช่วยฟังรุ่นที่มี DNN (เช่น Oticon More หรือ Oticon Real) ชิปประมวลผลจะทำการสแกนเสียงรอบตัวและเปรียบเทียบกับสิ่งที่มันเคยเรียนรู้มา 12 ล้านแบบนั้นตลอดเวลา เพื่อทำการ “จัดระเบียบ” เสียงให้สมองของคุณรับข้อมูลที่แม่นยำที่สุด

ประโยชน์ที่คุณจะสัมผัสได้จริง

  • ฟังชัดแม้ในที่เสียงดัง AI จะช่วยดึงเสียงสนทนาให้เด่นออกมาจากเสียงจานชามหรือเสียงดนตรีในร้านอาหาร

  • เสียงมีความเป็นธรรมชาติ คุณจะยังได้ยินเสียงนกร้องหรือเสียงลม โดยที่เสียงเหล่านั้นไม่กวนการสนทนา

  • ไม่เหนื่อยในการฟัง เพราะ AI ทำหน้าที่แยกแยะเสียงให้แล้ว สมองของคุณจึงไม่ต้องทำงานหนักเกินไป

>> เรื่องที่เกี่ยวข้อง <<

ใส่เครื่องช่วยฟังแล้วรู้สึกไม่สบายหูแต่บอกไม่ถูกว่าติดตรงไหน วิธีเตรียมตัวก่อนกลับไปปรับจูนเครื่องให้เห็นผลชัดเจน

ปัญหาที่พบบ่อยมากสำหรับผู้เริ่มใช้งานเครื่องช่วยฟังคือเ

คลิกอ่านต่อ »

ซื้อเครื่องช่วยฟังครั้งแรก จ่ายเงินแล้วจบจริงไหม? สิ่งที่ต้องรู้ก่อนตัดสินใจเพื่อการใช้งานที่คุ้มค่าในระยะยาว

การตัดสินใจซื้อเครื่องช่วยฟังหลายคนอาจมองว่าเหมือนการซื

คลิกอ่านต่อ »
Shopping Cart