Riot Games กำลังเปิดตัวมาตรการใหม่ที่เข้มงวดยิ่งขึ้น เพื่อจัดการผู้เล่นที่มีพฤติกรรม Toxic ใน Valorant

โดยในวันที่ 13 กรกฎาคม ที่จะถึงนี้ นักพัฒนาจะเริ่มเปิดตัวระบบประเมิน Voice Chat ในอเมริกาเหนือทั้งนี้เพื่อช่วยในการฝึกตัวโมเดลของภาษา (ถึงแม้ว่าจะเป็นภาษาอังกฤษเท่านั้น) และเตรียมเทคโนโลยีให้พร้อมสำหรับการเปิดตัวรุ่นเบต้าในปลายปีนี้

เป้าหมายคือการมีวิธีการที่น่าเชื่อถือในการรวบรวม”หลักฐานที่ชัดเจน” ที่สามารถช่วยตรวจสอบการละเมิดนโยบายด้านพฤติกรรมได้ ก่อนที่ Riot Games จะดำเนินการจัดการผู้เล่นคนนั้น นอกจากนี้ ยังช่วยให้ Riot สามารถให้เหตุผลที่เป็นรูปธรรมมากขึ้นว่าเหตุใดการดำเนินการลงโทษผู้เล่นคนนั้น



Riot ยังคงพยายามเพิ่มมาตรการจัดการผู้เล่นที่มีพฤติกรรมแย่ใน Valorant

Riot Games Valorant

ย้อนกลับไปในเดือนเมษายนปี 2021 Riot Games ได้ประกาศปรับปรุงข้อตกลงความเป็นส่วนตัวและข้อกำหนดในการให้บริการ เพื่อให้สามารถบันทึกและประเมิน Voice Chat ในเกมหากมีการส่งรายงานความประพฤติ

การเพิ่มมาตรการตรวจสอบ Voice Chat ใหม่ครั้งนี้เป็นส่วนหนึ่งของความพยายามที่มากขึ้นเพื่อต่อสู้กับพฤติกรรม Toxic ที่เกิดขึ้นภายในเกม โดยมีเป้าหมายที่จะเปิดตัวใน Valorant ก่อน และอาจจะเข้าสู่เกมในเครือ Riot Games อื่น ๆ เช่น League of Legends ในภายหลัง

อย่างไรก็ตาม การประเมิน Voice Chat ที่จะทดลองใช้ในอเมริกาเหนือจะยังไม่ถูกนำไปใช้สำหรับรายงานพฤติกรรมก่อกวนและ Toxic โดยจะเริ่มในรุ่นเบต้าที่จะมาในอนาคตเท่านั้น ตามรายงานของ Riot Games

“เราทราบดีว่าก่อนที่เราจะคิดถึงการปล่อยเครื่องมือนี้ เราจะต้องมั่นใจว่าเครื่องมือนี้มีประสิทธิภาพ และหากเกิดข้อผิดพลาดขึ้น เรามีระบบที่พร้อมจะแก้ไขผลผิดพลาดที่เกิดขึ้น” Riot Games กล่าว

เช่นเดียวกับเกมออนไลน์หลายๆ เกม ปัญหาพฤติกรรมก่อกวนและ Toxic ยังคงเป็นปัญหาใหญ่ใน Valorant ซึ่ง Riot Games หวังที่จะสร้างสภาพแวดล้อมที่ปลอดภัยและครอบคลุมมากขึ้นสำหรับผู้เล่นทุกคน และระบบประเมิน Voice Chat ใหม่เป็นส่วนสำคัญของวิสัยทัศน์นั้น

อ่านเพิ่ม: เสื้อ XERXIA Legends Vol.1 ถูกจองหมดในชั่วโมงเดียว