ในช่วงหลายปีที่ผ่านมา ธุรกิจการพนันทางอินเทอร์เน็ตเช่นเดียวกับธุรกิจอื่นๆ เช่น Spotify, Netflix และ Amazon ที่ได้เปลี่ยนแปลงผ่านปัญญาประดิษฐ์ (AI) และมีแนวโน้มที่จะได้รับการเปลี่ยนแปลงต่อไปในอีกหลายปีข้างหน้า

เนื่องจากการใช้ AI ทวีคูณมากขึ้น การใช้ AI ในอุตสาหกรรมเหล่านี้ช่วยในการเรียนรู้นิสัย รูปแบบ พฤติกรรม (บางครั้งแม้กระทั่งอารมณ์)

ปฏิสัมพันธ์ และเพิ่มศักยภาพในการเข้าถึงบริการและผลิตภัณฑ์ที่นำเสนอโดยบริษัทเหล่านี้ อย่างไรก็ตาม ในเวทีการพนันออนไลน์ AI

ยังสามารถแนะนำรูปแบบใหม่ของการพนันหรือการเดิมพันทางสังคม ซึ่ง AI สามารถสร้างอัตโนมัติและสร้างอัตราต่อรอง กำหนดการจ่ายเงิน รวมทั้งกำหนดเป้าหมายผู้ใช้กลุ่มที่ไม่ปกติสำหรับการเดิมพัน/การพนันรูปแบบนี้

เทคโนโลยี AI ยังเป็นพันธมิตรที่แข็งแกร่งในการเพิ่มประสิทธิภาพการบริการลูกค้า ป้องกันการฉ้อโกง ปฏิบัติตามกฎระเบียบบางอย่างโดยอัตโนมัติ รวมถึงการตรวจสอบ AML และ CFT สามารถใช้สำหรับการขึ้นเครื่อง การควบคุมอายุ ตำแหน่งทางภูมิศาสตร์ ฯลฯ

นอกจากนี้ยังใช้ AI เพื่อควบคุมพฤติกรรมของผู้เล่นเพื่อให้สามารถตรวจสอบนักพนันที่มีปัญหาและเข้าไปแทรกแซงก่อนที่พวกเขาจะล้วงเอาตัวเองออกไป กระบวนการแยกตัวเองออกสามารถส่งผ่าน AI ได้เช่นกัน

AI ยังช่วยในการใช้ข้อมูลของลูกค้าอย่างมีประสิทธิผลมากขึ้น และสร้างผลิตภัณฑ์ที่ดีขึ้นและประสบการณ์ที่เป็นส่วนตัวมากขึ้นสำหรับผู้เล่น ศักยภาพเต็มที่ของมันยังคงไม่ได้ใช้ และเราคาดว่าการใช้ AI ในอุตสาหกรรมในวงกว้างในภาคการพนันในอีกไม่กี่ปีข้างหน้า

ด้วยเหตุนี้ ผู้ประกอบการการพนันจำเป็นต้องติดตามการพัฒนาร่างกฎระเบียบใหม่ของสหภาพยุโรปอย่างใกล้ชิด เนื่องจากระบบ AI บางอย่างที่พวกเขาปรับใช้หรือวางแผนที่จะปรับใช้อาจอยู่ในหมวดหมู่ของ AI ที่มีความเสี่ยงสูงในภาคผนวก 3 ของกฎระเบียบร่างสหภาพยุโรป 

การวางตลาด การให้บริการ หรือใช้ระบบ AI บางอย่างที่มีจุดประสงค์เพื่อบิดเบือนพฤติกรรมของมนุษย์ ซึ่งมีแนวโน้มที่จะเกิดอันตรายต่อร่างกายหรือจิตใจ ถือเป็นสิ่งต้องห้าม ระบบ AI

ดังกล่าวปรับใช้องค์ประกอบที่อ่อนเกินซึ่งบุคคลไม่สามารถรับรู้หรือใช้ประโยชน์จากความอ่อนแอของเด็กและผู้คนเนื่องจากอายุ ความบกพร่องทางร่างกายหรือจิตใจ พวกเขาทำเช่นนั้น

โดยมีเจตนาที่จะบิดเบือนพฤติกรรมของบุคคลอย่างมีนัยสำคัญและในลักษณะที่ก่อให้เกิดหรือน่าจะก่อให้เกิดอันตรายต่อบุคคลนั้นหรือบุคคลอื่น

ความตั้งใจไม่อาจสันนิษฐานได้หากการบิดเบือนพฤติกรรมของมนุษย์เป็นผลมาจากปัจจัยภายนอกระบบ AI ซึ่งอยู่นอกเหนือการควบคุมของผู้ให้บริการหรือผู้ใช้ การวิจัยเพื่อวัตถุประสงค์ที่ถูกต้องตามกฎหมายที่เกี่ยวข้องกับระบบ AI

ดังกล่าวไม่ควรถูกขัดขวางโดยข้อห้าม หากการวิจัยดังกล่าวไม่ถือเป็นการใช้ระบบ AI ในความสัมพันธ์ระหว่างมนุษย์กับเครื่องจักรที่ทำให้บุคคลธรรมดาได้รับอันตราย และการวิจัยดังกล่าวดำเนินการตาม เป็นที่ยอมรับมาตรฐานทางจริยธรรมสำหรับการวิจัยทางวิทยาศาสตร์

ในขณะนี้ การวิเคราะห์อย่างเป็นรูปธรรมและการระบุสิ่งที่จะถูกห้ามนั้นเป็นเรื่องที่ค่อนข้างเป็นส่วนตัว และไม่มีแนวทางหรือเกณฑ์เพิ่มเติมที่จะช่วยในการตีความที่เหมาะสมและสอดคล้องกัน

เราหวังว่าก่อนที่จะมีการเผยแพร่ร่างกฎระเบียบในปีต่อๆ ไป สิ่งเหล่านี้จะตกผลึกและอาจมีการใช้กรอบแบบจำลองความเสี่ยงและเมทริกซ์ที่ได้รับการสนับสนุนทางวิทยาศาสตร์

เพื่อเป็นแนวทางให้กับองค์กรในการประเมินความเสี่ยง ความน่าจะเป็นของความเสี่ยง ความรุนแรงของอันตราย และเพื่อ ดูว่ากิจกรรมดังกล่าวจะถูกยึดตามข้อห้ามเฉพาะที่กล่าวข้างต้นหรือไม่ นี่เป็นสิ่งสำคัญ

นอกเหนือจากการขาดความโปร่งใสแล้ว องค์กรต่างๆ จะถูกปล่อยให้ระบุปัจจัยเชิงอัตวิสัยเหล่านี้โดยลำพัง ด้วยความหวาดกลัวต่อการลงโทษครั้งใหญ่ ที่แขวนอยู่บนคอของพวกเขา

การพัฒนาและการวางระบบ AI ที่ขึ้นบัญชีดำในตลาดหรือการให้บริการ (สูงสุด 30 ล้านยูโรหรือ 6% ของมูลค่าการซื้อขายทั่วโลกประจำปีของปีงบประมาณก่อนหน้า แล้วแต่จำนวนใดจะสูงกว่า)

ล้มเหลวในการปฏิบัติตามพันธกรณีของความร่วมมือกับหน่วยงานผู้มีอำนาจระดับชาติ รวมถึงการสอบสวน (สูงถึง 20 ล้านยูโรหรือ 4% ของมูลค่าการซื้อขายประจำปีทั่วโลกของปีการเงินก่อนหน้า แล้วแต่จำนวนใดจะสูงกว่า)

ให้ข้อมูลที่ไม่ถูกต้อง ไม่สมบูรณ์ หรือเป็นเท็จแก่หน่วยงานที่ได้รับการแจ้งเตือน (สูงสุด 10 ล้านยูโรหรือ 2% ของมูลค่าการซื้อขายประจำปีทั่วโลกของปีการเงินก่อนหน้า แล้วแต่จำนวนใดจะสูงกว่า)

 

ขอบคุณผู้ให้การสนับสนุนโดย    เครื่องช่วยฟังเล็กจิ๋ว