การประเมินผล iApp ASR Pro บน Mozilla Common Voice 17.0
รายงานนี้นำเสนอผลการประเมินระบบการถอดเสียงอัตโนมัติ (iApp ASR Pro) บนชุดข้อมูล Mozilla Common Voice 17.0 เพื่อเปรียบเทียบประสิทธิภาพของบริการ ASR ต่าง ๆ ทั้งของต่างประเทศและผู้ให้บริการภายในประเทศ
ชุดข้อมูลและตัวชี้วัดการประเมิน
การประเมินนี้ดำเนินการบนชุดข้อมูล Mozilla Common Voice 17.0 ซึ่งเป็นชุดข้อมูลที่ได้รับการใช้งานอย่างแพร่หลายและประกอบด้วยตัวอย่างเสียงที่หลากหลาย ใช้ในการทดสอบความแม่นยำของ ASR เราใช้ Word Error Rate (WER) และ Character Error Rate (CER) เป็นตัวชี้วัดหลักในการประเมินบริการ ASR แต่ละตัว
การคำนวณ WER และ CER
เราใช้ไลบรารี jiwer ในการคำนวณ WER และ CER ซึ่งเป็นเครื่องมือมาตรฐานสำหรับการประเมิน ASR โดยอธิบายตัวชี้วัดแต่ละตัวดังนี้:
-
Word Error Rate (WER): วัดอัตราข้อผิดพลาดในระดับคำ โดยคำนวณจากผลรวมของการแทนที่ ลบ และเพิ่มคำ หารด้วยจำนวนคำทั้งหมดในทรานสคริปต์อ้างอิง
-
Character Error Rate (CER): วัดอัตราข้อผิดพลาดในระดับอักขระ โดยคำนวณแบบเดียวกับ WER แต่ในระดับอักขระ ซึ่งให้การวัดความแม่นยำที่ละเอียดขึ้น
การคำนวณ WER และ CER ดำเนินการด้วย jiwer ตามขั้นตอนดังนี้:
-
ปรับแต่งทรานสคริปต์อ้างอิงและทรานสคริปต์ที่ได้รับจาก ASR เพื่อให้เป็นรูปแบบเดียวกัน (เช่น ตัวพิมพ์เล็ก, ลบเครื่องหมายวรรคตอน)
-
คำนวณ WER และ CER โดยเปรียบเทียบผลลัพธ์จาก ASR แต่ละตัวกับทรานสคริปต์อ้างอิง
ตารางการประเมินผลความแม่นยำ
ตารางด้านล่างสรุปอัตราความผิดพลาดของคำ (WER) อัตราความผิดพลาดของอักขระ (CER) และความแม่นยำของบริการ ASR แต่ละตัว
ข้อมูลสำคัญ:
-
iApp ASR PRO มีความแม่นยำสูงสุด ด้วยค่า WER ที่ 92.41% และค่า CER ที่ 97.81%
-
Google ASR และ Thai Local Competitor แสดงระดับความแม่นยำที่ใกล้เคียงกัน โดยมีค่า WER 88.11% และ 88.64% ตามลำดับ
-
iApp ASR Base แสดงประสิทธิภาพที่น่าเชื่อถือ ด้วยค่า WER 85.48% ซึ่งเป็นตัวเลือกที่ดีคู่กับ iApp ASR PRO ที่มีความแม่นยำสูง
การประเมิน CER
แผนภูมิด้านล่างแสดงการเปรียบเทียบอัตราความผิดพลาดของอักขระ (CER) ระหว่าง iApp ASR Pro และบริการ ASR อื่น ๆ
สรุป:
-
iApp ASR Pro vs Thai Local Competitor: iApp ASR Pro มีอัตราชนะใน CER ที่ 47.3% แสดงถึงความเหนือชั้นในหลายกรณี โดยเสมอ 29.2% และแพ้ 23.6%
-
iApp ASR Pro vs Google ASR: iApp ASR Pro แสดงอัตรา ชนะ 44.9% เสมอ 31.0% และแพ้ 24.1%
-
มีการเปรียบเทียบเพิ่มเติม แสดงถึงความสามารถในการแข่งขันระหว่างบริการ ASR เหล่านี้
การประเมิน WER
แผนภูมินี้แสดงการเปรียบเทียบอัตราความผิดพลาดของคำ (WER) ระหว่าง iApp ASR Pro และบริการ ASR อื่น ๆ
ข้อสังเกต:
-
iApp ASR Pro vs Thai Local Competitor: iApp ASR Pro มีอัตราชนะใน WER ที่ 38.2% โดยมีอัตราเสมอที่ 38.5% และอัตราแพ้ที่ 23.3%
-
iApp ASR Pro vs Google ASR: iApp ASR Pro มีอัตราชนะที่ 35.5% และเสมอที่ 41.1% โดยมีอัตราแพ้ที่ 23.5%
-
ผลลัพธ์นี้แสดงถึงระดับประสิทธิภาพที่แตกต่างกันของบริการ ASR ต่าง ๆ
สรุปผล
การประเมินนี้แสดงให้เห็นว่า iApp ASR PRO มีระดับความแม่นยำที่สูงสุด Google ASR และ Thai Local Competitor มีความสามารถที่สมดุลและมีความแม่นยำที่ดี ในขณะที่ iApp ASR Base มีความแม่นยำที่ใกล้เคียงกัน ข้อมูลเหล่านี้สามารถช่วยให้ผู้ใช้เลือกบริการ ASR ที่เหมาะสมตามความต้องการเฉพาะด้านของตนเอง
ท่านสามารถทดสอบ iApp ASR PRO ได้ที่ https://ai.iapp.co.th/product/speech_to_text_asr