OpenAI บริษัทผู้นำด้านปัญญาประดิษฐ์ (AI) ได้ประกาศจัดตั้ง “คณะกรรมการความปลอดภัยและความมั่นคง” (Safety and Security Committee) เพื่อดูแลการตัดสินใจที่สำคัญเกี่ยวกับความปลอดภัยของโครงการและการดำเนินงานของบริษัท แต่การตัดสินใจครั้งนี้กลับสร้างความกังวลให้กับผู้เชี่ยวชาญด้านจริยธรรม เนื่องจากสมาชิกทั้งหมดของคณะกรรมการล้วนเป็นผู้บริหารภายในของ OpenAI เอง
ความกังวลเรื่องความเป็นกลาง
การแต่งตั้ง Sam Altman ซีอีโอของ OpenAI และผู้บริหารระดับสูงอื่น ๆ เข้าร่วมคณะกรรมการนี้ ทำให้เกิดคำถามถึงความเป็นกลางและความโปร่งใสในการตรวจสอบและกำกับดูแลความปลอดภัยของ AI โดยเฉพาะอย่างยิ่งเมื่อ OpenAI กำลังพัฒนาโมเดล AI ที่มีศักยภาพสูงขึ้นเรื่อย ๆ
ความกังวลจากอดีตพนักงาน
ความกังวลนี้ยิ่งทวีความรุนแรงขึ้นเมื่ออดีตพนักงานหลายคนของ OpenAI ออกมาเปิดเผยว่าบริษัทละเลยและลดความสำคัญของงานด้านความปลอดภัยของ AI อย่างจงใจ โดยเฉพาะ Ilya Sutskever ผู้ร่วมก่อตั้งและอดีตหัวหน้านักวิทยาศาสตร์ของ OpenAI ซึ่งลาออกเนื่องจากความขัดแย้งกับ Altman เรื่องการเร่งเปิดตัวผลิตภัณฑ์ AI โดยไม่คำนึงถึงความปลอดภัย
ความพยายามในการสร้างความน่าเชื่อถือ
OpenAI พยายามสร้างความน่าเชื่อถือให้กับคณะกรรมการนี้โดยอ้างว่าจะจ้างผู้เชี่ยวชาญภายนอกมาช่วยงาน แต่ก็ยังไม่มีรายละเอียดที่ชัดเจนเกี่ยวกับบทบาทและอำนาจของผู้เชี่ยวชาญเหล่านี้
บทสรุป
การจัดตั้งคณะกรรมการความปลอดภัยของ OpenAI เป็นก้าวสำคัญในการรับมือกับความท้าทายด้านจริยธรรมและความปลอดภัยของ AI ที่กำลังเติบโตขึ้น แต่การขาดความเป็นกลางและความโปร่งใสอาจทำให้ความพยายามนี้สูญเปล่า และเป็นการท้าทายความเชื่อมั่นของสาธารณชนที่มีต่อ OpenAI ในการพัฒนา AI อย่างมีความรับผิดชอบ
OpenAI จะสามารถพิสูจน์ให้เห็นได้หรือไม่ว่าคณะกรรมการนี้มีประสิทธิภาพและความน่าเชื่อถือในการกำกับดูแลความปลอดภัยของ AI หรือจะเป็นเพียงภาพลวงตาที่สร้างขึ้นเพื่อปกปิดปัญหาภายในองค์กร นี่คือคำถามที่สังคมกำลังจับตามองอย่างใกล้ชิด