ในช่วงหลายปีที่ผ่านมา ธุรกิจการพนันทางอินเทอร์เน็ตเช่นเดียวกับธุรกิจอื่นๆ เช่น Spotify, Netflix และ Amazon ที่ได้เปลี่ยนแปลงผ่านปัญญาประดิษฐ์ (AI) และมีแนวโน้มที่จะได้รับการเปลี่ยนแปลงต่อไปในอีกหลายปีข้างหน้า
เนื่องจากการใช้ AI ทวีคูณมากขึ้น การใช้ AI ในอุตสาหกรรมเหล่านี้ช่วยในการเรียนรู้นิสัย รูปแบบ พฤติกรรม (บางครั้งแม้กระทั่งอารมณ์)
ปฏิสัมพันธ์ และเพิ่มศักยภาพในการเข้าถึงบริการและผลิตภัณฑ์ที่นำเสนอโดยบริษัทเหล่านี้ อย่างไรก็ตาม ในเวทีการพนันออนไลน์ AI
ยังสามารถแนะนำรูปแบบใหม่ของการพนันหรือการเดิมพันทางสังคม ซึ่ง AI สามารถสร้างอัตโนมัติและสร้างอัตราต่อรอง กำหนดการจ่ายเงิน รวมทั้งกำหนดเป้าหมายผู้ใช้กลุ่มที่ไม่ปกติสำหรับการเดิมพัน/การพนันรูปแบบนี้
เทคโนโลยี AI ยังเป็นพันธมิตรที่แข็งแกร่งในการเพิ่มประสิทธิภาพการบริการลูกค้า ป้องกันการฉ้อโกง ปฏิบัติตามกฎระเบียบบางอย่างโดยอัตโนมัติ รวมถึงการตรวจสอบ AML และ CFT สามารถใช้สำหรับการขึ้นเครื่อง การควบคุมอายุ ตำแหน่งทางภูมิศาสตร์ ฯลฯ
นอกจากนี้ยังใช้ AI เพื่อควบคุมพฤติกรรมของผู้เล่นเพื่อให้สามารถตรวจสอบนักพนันที่มีปัญหาและเข้าไปแทรกแซงก่อนที่พวกเขาจะล้วงเอาตัวเองออกไป กระบวนการแยกตัวเองออกสามารถส่งผ่าน AI ได้เช่นกัน
AI ยังช่วยในการใช้ข้อมูลของลูกค้าอย่างมีประสิทธิผลมากขึ้น และสร้างผลิตภัณฑ์ที่ดีขึ้นและประสบการณ์ที่เป็นส่วนตัวมากขึ้นสำหรับผู้เล่น ศักยภาพเต็มที่ของมันยังคงไม่ได้ใช้ และเราคาดว่าการใช้ AI ในอุตสาหกรรมในวงกว้างในภาคการพนันในอีกไม่กี่ปีข้างหน้า
ด้วยเหตุนี้ ผู้ประกอบการการพนันจำเป็นต้องติดตามการพัฒนาร่างกฎระเบียบใหม่ของสหภาพยุโรปอย่างใกล้ชิด เนื่องจากระบบ AI บางอย่างที่พวกเขาปรับใช้หรือวางแผนที่จะปรับใช้อาจอยู่ในหมวดหมู่ของ AI ที่มีความเสี่ยงสูงในภาคผนวก 3 ของกฎระเบียบร่างสหภาพยุโรป
การวางตลาด การให้บริการ หรือใช้ระบบ AI บางอย่างที่มีจุดประสงค์เพื่อบิดเบือนพฤติกรรมของมนุษย์ ซึ่งมีแนวโน้มที่จะเกิดอันตรายต่อร่างกายหรือจิตใจ ถือเป็นสิ่งต้องห้าม ระบบ AI
ดังกล่าวปรับใช้องค์ประกอบที่อ่อนเกินซึ่งบุคคลไม่สามารถรับรู้หรือใช้ประโยชน์จากความอ่อนแอของเด็กและผู้คนเนื่องจากอายุ ความบกพร่องทางร่างกายหรือจิตใจ พวกเขาทำเช่นนั้น
โดยมีเจตนาที่จะบิดเบือนพฤติกรรมของบุคคลอย่างมีนัยสำคัญและในลักษณะที่ก่อให้เกิดหรือน่าจะก่อให้เกิดอันตรายต่อบุคคลนั้นหรือบุคคลอื่น
ความตั้งใจไม่อาจสันนิษฐานได้หากการบิดเบือนพฤติกรรมของมนุษย์เป็นผลมาจากปัจจัยภายนอกระบบ AI ซึ่งอยู่นอกเหนือการควบคุมของผู้ให้บริการหรือผู้ใช้ การวิจัยเพื่อวัตถุประสงค์ที่ถูกต้องตามกฎหมายที่เกี่ยวข้องกับระบบ AI
ดังกล่าวไม่ควรถูกขัดขวางโดยข้อห้าม หากการวิจัยดังกล่าวไม่ถือเป็นการใช้ระบบ AI ในความสัมพันธ์ระหว่างมนุษย์กับเครื่องจักรที่ทำให้บุคคลธรรมดาได้รับอันตราย และการวิจัยดังกล่าวดำเนินการตาม เป็นที่ยอมรับมาตรฐานทางจริยธรรมสำหรับการวิจัยทางวิทยาศาสตร์
ในขณะนี้ การวิเคราะห์อย่างเป็นรูปธรรมและการระบุสิ่งที่จะถูกห้ามนั้นเป็นเรื่องที่ค่อนข้างเป็นส่วนตัว และไม่มีแนวทางหรือเกณฑ์เพิ่มเติมที่จะช่วยในการตีความที่เหมาะสมและสอดคล้องกัน
เราหวังว่าก่อนที่จะมีการเผยแพร่ร่างกฎระเบียบในปีต่อๆ ไป สิ่งเหล่านี้จะตกผลึกและอาจมีการใช้กรอบแบบจำลองความเสี่ยงและเมทริกซ์ที่ได้รับการสนับสนุนทางวิทยาศาสตร์
เพื่อเป็นแนวทางให้กับองค์กรในการประเมินความเสี่ยง ความน่าจะเป็นของความเสี่ยง ความรุนแรงของอันตราย และเพื่อ ดูว่ากิจกรรมดังกล่าวจะถูกยึดตามข้อห้ามเฉพาะที่กล่าวข้างต้นหรือไม่ นี่เป็นสิ่งสำคัญ
นอกเหนือจากการขาดความโปร่งใสแล้ว องค์กรต่างๆ จะถูกปล่อยให้ระบุปัจจัยเชิงอัตวิสัยเหล่านี้โดยลำพัง ด้วยความหวาดกลัวต่อการลงโทษครั้งใหญ่ ที่แขวนอยู่บนคอของพวกเขา
การพัฒนาและการวางระบบ AI ที่ขึ้นบัญชีดำในตลาดหรือการให้บริการ (สูงสุด 30 ล้านยูโรหรือ 6% ของมูลค่าการซื้อขายทั่วโลกประจำปีของปีงบประมาณก่อนหน้า แล้วแต่จำนวนใดจะสูงกว่า)
ล้มเหลวในการปฏิบัติตามพันธกรณีของความร่วมมือกับหน่วยงานผู้มีอำนาจระดับชาติ รวมถึงการสอบสวน (สูงถึง 20 ล้านยูโรหรือ 4% ของมูลค่าการซื้อขายประจำปีทั่วโลกของปีการเงินก่อนหน้า แล้วแต่จำนวนใดจะสูงกว่า)
ให้ข้อมูลที่ไม่ถูกต้อง ไม่สมบูรณ์ หรือเป็นเท็จแก่หน่วยงานที่ได้รับการแจ้งเตือน (สูงสุด 10 ล้านยูโรหรือ 2% ของมูลค่าการซื้อขายประจำปีทั่วโลกของปีการเงินก่อนหน้า แล้วแต่จำนวนใดจะสูงกว่า)
ขอบคุณผู้ให้การสนับสนุนโดย เครื่องช่วยฟังเล็กจิ๋ว