พวกเราหลายคนกำลังพูดคุยกับอุปกรณ์สมาร์ทของเราราวกับว่าพวกเขาเป็นมนุษย์ ในอนาคตอุปกรณ์สมาร์ทอาจสามารถพูดคุยกลับมาในทำนองเดียวกันเลียนแบบ "อูมมม์" และ "อ่า" เสียงหัวเราะและการถอนหายใจพร้อมกับสัญญาณอื่น ๆ ที่บ่งบอกถึงอารมณ์ของมนุษย์เช่นปรับจังหวะและเสียงต่ำ
การเริ่มต้นในนิวยอร์กฮูม aiได้เปิดตัวอินเทอร์เฟซ AI เสียง“ อัจฉริยะทางอารมณ์” ใหม่ที่สามารถสร้างขึ้นในแอพพลิเคชั่นที่แตกต่างกันตั้งแต่การบริการลูกค้าและการดูแลสุขภาพไปจนถึงความเป็นจริงเสมือนจริงและเพิ่มความเป็นจริง
รุ่นเบต้าของผลิตภัณฑ์ชื่อ Empathic Voice Interface (EVI) ได้รับการปล่อยตัวหลังจากการจัดหาเงินทุนรอบ 50 ล้านเหรียญสหรัฐที่นำโดย EQT Ventures Union Square Ventures, Nat Friedman & Daniel Gross, Metaplanet, Northwell Holdings, Comcast Ventures และ LG Technology Ventures ก็มีส่วนร่วมในการระดมทุน
ที่AI การสนทนาเป็นคนแรกที่ได้รับการฝึกฝนให้เข้าใจเมื่อผู้ใช้พูดเสร็จทำนายการตั้งค่าของพวกเขาและสร้างการตอบสนองของเสียงที่ดีที่สุดสำหรับความพึงพอใจของผู้ใช้เมื่อเวลาผ่านไปฮูมเออีกล่าวในการเปิดตัว
“ ข้อ จำกัด หลักของระบบ AI ในปัจจุบันคือพวกเขาได้รับคำแนะนำจากการให้คะแนนและคำแนะนำของมนุษย์ผิวเผินซึ่งมีแนวโน้มผิดพลาดและไม่สามารถเข้าถึงศักยภาพอันกว้างใหญ่ของ AI ที่จะเกิดขึ้นกับวิธีการใหม่ ๆ ที่จะทำให้ผู้คนมีความสุข” ผู้ก่อตั้ง บริษัท และอดีตนักวิทยาศาสตร์ของ Google Alan Cowen กล่าว “ ด้วยการสร้าง AI ที่เรียนรู้โดยตรงจากพร็อกซีแห่งความสุขของมนุษย์เราได้สอนอย่างมีประสิทธิภาพเพื่อสร้างความพึงพอใจของมนุษย์จากหลักการแรกจากนั้นอัปเดตความรู้นั้นกับบุคคลใหม่ทุกคนที่พูดถึงและแอปพลิเคชันใหม่ทุกชิ้นที่ฝังอยู่”
แบบจำลองเสียงได้รับการฝึกฝนเกี่ยวกับข้อมูลจากการโต้ตอบของมนุษย์หลายล้านครั้งและสร้างขึ้นบน AI การกำเนิดหลายรูปแบบที่รวมโมเดลภาษาขนาดใหญ่ (LLMs) เข้ากับมาตรการการแสดงออก ฮูมเรียกสิ่งนี้ว่าแบบจำลองภาษาขนาดใหญ่ที่เอาใจใส่ (ELLM) และช่วยให้ผลิตภัณฑ์ของมันสามารถปรับคำและเสียงเสียงตามบริบทและการแสดงออกทางอารมณ์ของผู้ใช้
Hume AI ไม่ได้เป็นเพียง บริษัท เดียวที่ทดลองใช้อารมณ์เข้าสู่เทคโนโลยี
หุ่นยนต์ของมหาวิทยาลัยโคลัมเบีย Hod Lipson มีสร้างหุ่นยนต์ที่ขับเคลื่อนด้วย AI ที่ใช้เครือข่ายประสาทเพื่อดูใบหน้าของมนุษย์ทำนายการแสดงออกของพวกเขาและพยายามทำซ้ำด้วยใบหน้าของตัวเอง
นักวิทยาศาสตร์จากสถาบันวิทยาศาสตร์และเทคโนโลยีแห่งชาติของเกาหลีใต้ขึ้นมาด้วยหน้ากากใบหน้าที่ใช้เซ็นเซอร์เพื่อบันทึกข้อมูลการแสดงออกทางวาจาและไม่ใช่คำพูด
ระบบอินเทอร์เฟซผิวหน้าแบบรวมส่วนบุคคล (PSIFI) ที่เรียกว่าการถ่ายโอนข้อมูลแบบไร้สายทำให้สามารถรับรู้อารมณ์แบบเรียลไทม์ได้
Jiyun Kim นักพัฒนาซอฟต์แวร์เชื่อว่าสามารถใช้งานได้ในแอพพลิเคชั่นเช่น Digital Concierges ในความเป็นจริงเสมือนที่ให้บริการที่กำหนดเองตามอารมณ์ของผู้ใช้เช่นคำแนะนำสำหรับเพลงภาพยนตร์และหนังสือ
หัวข้อบทความ
ไบโอเมตริกซ์-การรับรู้อารมณ์-การจดจำการแสดงออก-เงินทุน-ฮูม ai-หุ่นยนต์