การเปิดประเด็นข้อพิพาท การอภิปรายเมื่อเร็วๆ นี้ทำให้เกิดประเด็นเร่งด่วนอื่นๆ เกี่ยวกับภาษาด้วย วิศวกรของ Google อ้างว่าแชทบ็อตปัญญาประดิษฐ์ (AI)
ที่เขาใช้เวลาหลายเดือนในการทดสอบนั้นมีเหตุผล แม้ว่าบริษัทจะยืนยันว่าไม่ใช่ ในรายงานภายในที่แชร์กับ Washington Post เมื่อสัปดาห์ที่แล้ว Blake Lemoine วิศวกรซอฟต์แวร์อาวุโสกับทีม AI ที่รับผิดชอบของ Google
เรียกว่าแชทบอทที่รู้จักกันในชื่อ LaMDA (สำหรับโมเดลภาษาสำหรับแอปพลิเคชันการสนทนา) “อาจเป็นสิ่งประดิษฐ์ที่มนุษย์สร้างขึ้นที่ชาญฉลาดที่สุดเท่าที่เคยสร้างมา ”
แต่มันเป็นความรู้สึก? เราไม่สามารถตอบคำถามนั้นได้อย่างชัดเจน ณ จุดนี้ แต่เป็นคำถามที่ต้องใช้อย่างจริงจัง” Lemoine เขียนไว้ในรายงานก่อนที่จะแบ่งปันคำถามและคำตอบประมาณ 20 หน้ากับ LaMDA เกี่ยวกับความรู้สึกที่รายงานด้วยตนเองทางออนไลน์ ในบันทึกแชทนี้
ซึ่งเขาเผยแพร่บนสื่อกลางด้วย เขาได้ตรวจสอบความเข้าใจของแชทบ็อตเกี่ยวกับการมีอยู่และจิตสำนึกของตัวเอง Lemoine กล่าวว่าเขาตัดสินใจที่จะเปิดเผยการสนทนาเหล่านี้ต่อสาธารณะหลังจากที่ผู้บริหารของ Google พิจารณาและไล่ออก (The New York Times กล่าวว่า “หลายร้อย” ของนักวิจัยและวิศวกร Google คนอื่นๆ
ของ Google โต้ตอบกับ LaMDA และ “ได้ข้อสรุปที่แตกต่างจาก Mr. Lemoine”) ตั้งแต่นั้นมา เขาถูกระงับเนื่องจากละเมิดนโยบายความเป็นส่วนตัวของบริษัท ตามรายงานของ The Washington Post
LaMDA สร้างขึ้นบนสถาปัตยกรรมโครงข่ายประสาทเทียมที่สามารถสังเคราะห์ข้อมูลจำนวนมาก ระบุรูปแบบ และเรียนรู้จากสิ่งที่ได้รับ ในกรณีของ LaMDA การได้รับข้อความจำนวนมากทำให้แชทบอทสามารถมีส่วนร่วมในการสนทนาที่ “ไหลลื่น” Google กล่าวในการแถลงข่าวเมื่อปีที่แล้วเกี่ยวกับโมเดลนี้
เรียกมันว่า “เทคโนโลยีการสนทนาที่ก้าวล้ำ” The Washington Post รายงาน CEO Sundar Puchai กล่าวว่าในปีเดียวกันนั้นมีแผนที่จะฝัง LaMDA ไว้ในข้อเสนอต่างๆ ของบริษัท รวมถึง Search และ Google Assistant ผู้เชี่ยวชาญนอก Google ส่วนใหญ่เห็นด้วยกับการค้นพบของบริษัทเกี่ยวกับ LaMDA โดยกล่าวว่าระบบปัจจุบันไม่มีอำนาจที่จะบรรลุความรู้สึกและเสนอให้เลียนแบบการสนทนาของมนุษย์ที่น่าเชื่อถือตามที่ออกแบบมาเพื่อทำ
“สิ่งที่ระบบเหล่านี้ทำไม่มากก็น้อยคือการรวบรวมลำดับของคำ แต่ไม่มีความเข้าใจที่เชื่อมโยงกันของโลกที่อยู่เบื้องหลังพวกเขาเช่นผู้เล่น Scrabble ภาษาต่างประเทศที่ใช้คำภาษาอังกฤษเป็นเครื่องมือให้คะแนนโดยไม่มีเงื่อนงำใด ๆ หมายความว่าอย่างไร” Gary Marcus นักวิจัยและผู้เขียน AI เขียนในโพสต์ Substack
โดยอ้างถึงผู้เชี่ยวชาญหลายคน มีความเสี่ยงในทันทีที่มาพร้อมกับรูปแบบการฝึกอบรมเช่น LaMDA รวมถึง “อคติภายใน สะท้อนคำพูดแสดงความเกลียดชัง หรือการจำลองข้อมูลที่ทำให้เข้าใจผิด” ตามที่ Google กล่าวในการแถลงข่าวปี 2021 ตามรายงานของ The Washington Post Lemoine ให้ความสำคัญกับบริษัทในการแก้ไขปัญหาเหล่านี้ โดยได้พัฒนา “อัลกอริธึมความเป็นธรรมในการขจัดอคติออกจากระบบการเรียนรู้ของเครื่อง”
สนับสนุนโดย. สมัครยูฟ่าเบท365