Closed-AI
เมื่อ OpenAI เลือกไม่เปิดเผยข้อมูลตัวโมเดลของ ChatGPT ด้วย "เหตุผลทางธุรกิจ"
หลังจากพึ่งเปิดตัว ChatGPT-4 ได้ไม่นาน ดูเหมือนความฮ็อตของ A.I. ตัวนี้จะไม่ได้อยู่แค่ศักยภาพที่สูงขึ้นอย่างก้าวกระโดดเสียแล้ว เพราะล่าสุดได้มีคนเปิดประเด็นเรื่องที่ว่า OpenAI มีนโยบายในการไม่เปิดเผยข้อมูลเกี่ยวกับตัวโมเดล “ทั้งหมด” ด้วยเหตุผลด้านธุรกิจและความปลอดภัย
กระแสนี้เริ่มโดยคุณ Ben Schmidt ที่เอาเอกสารแนะนำ ChatGPT-4 ออกมาเผยแพร่ถึงข้อความตอนหนึ่งว่า ChatGPT-4 จะไม่เปิดเผยรายละเอียดโมเดลทั้งสถาปัตยกรรม ฮาร์ดแวร์ วิธีฝึกฝน และข้อมูลที่ใช้ฝึกฝน จนราวกับว่าโมเดล AI รุ่นนี้จะไม่เปิดเผยอะไรเลยเหมือนที่เคยทำมาแม้แต่กลุ่มข้อมูลที่ใช้ฝึกฝน
ปัจจุบัน Ben Schmidt ซึ่งเป็น Vice President ด้าน Information design ของ Nomic AI และทำงานด้านข้อมูลสารสนเทศบนอินเตอร์เน็ตได้แสดงความกังวลเกี่ยวกับความถูกต้องและแม่นยำของข้อมูลที่ไม่สามารถตรวจสอบได้ โดยได้ยกตัวอย่างผ่าน mapping ที่สะท้อนว่าเมื่อการเข้าถึงของ AI มีข้อจำกัดขึ้น “หัวข้อ” ที่ถูกปฏิสัมพันธ์กับ AI ก็ลดลงอย่างเห็นได้ชัด แถมหัวข้อยังเอนเอียงไปในทางที่สุ่มเสี่ยงขึ้นอย่างมาก การไม่เปิดเผยข้อมูลในครั้งนี้จึงยิ่งสุ่มเสี่ยงในการเผยแพร่ข้อมูลที่อาจจะไม่ถูกต้องแม่นยำได้
และในฐานะอดีตอาจารย์ด้านประวัติศาสตร์ Schmidt ได้เสนอว่า “การเลือกป้อนข้อมูล” มีประเด็นเรื่อง “อคติทางข้อมูล” อยู่สูง การที่เราไม่สามารถตรวจสอบได้ว่าข้อมูลแบบไหนถูกป้อนเข้าไปในโมเดล นั่นหมายถึงการสุ่มเสี่ยงให้คนรับเอาข้อมูลที่ “ไม่รอบด้าน” ไว้เพียงด้านเดียว ซึ่งจะมีผลต่อความมั่นใจและความปลอดภัยแน่นอน
หลังจากกระแสนี้ถูกจุดติดขึ้น ก็มีผู้ร่วมวิจารณ์ OpenAI อีกเป็นจำนวนมาก โดยเฉพาะในประเด็นเรื่อง “ภารกิจเมื่อครั้งก่อตั้ง” ที่มุ่งเป้าเรื่องการสร้าง “ประโยชน์ต่อมนุษย์ชาติโดยไม่ยึดโยงอยู่กับผลกำไรทางธุรกิจ” จนเกิดคำถามว่าในปัจจุบัน OpenAI ยังยึดมั่นในเรื่องดังกล่าวมากน้อยเพียงใด โดยเฉพาะอย่างยิ่งหลังจากถูกเข้าซื้อกิจการโดย Microsoft จนเปลี่ยนสถานะจาก non-profit company เป็น cap for-profit company
จากบทสัมภาษณ์ของ The Verg กับผู้ร่วมก่อตั้งของ OpenAI อย่าง Ilya Sutskever ได้ตอบคำถามเกี่ยวกับนโยบายในการไม่เปิดเผยตัวโมเดลเอาไว้ว่า “เป็นเรื่องของการแข่งขันทางธุรกิจมากกว่าเรื่องความปลอดภัย”
Sutskever ได้ตอบคำถามต่อกรณีดังกล่าวว่าเรื่องส่วนใหญ่เป็นประเด็นเรื่องการแข่งขันทางธุรกิจ ที่ OpenAI ได้ทุ่มทรัพยากรจำนวนมากในการพัฒนา ChatGPT-4 ขึ้นมา และมีคู่แข่งอีกจำนวนมากที่ต้องการทำให้ได้ในระดับนี้ การไม่เปิดเผยข้อมูลจึงเป็นการป้องกันคู่แข่งในตลาดมากกว่า
และเมื่อถูกถามว่าแล้วคิดอย่างไรที่มีการเปลี่ยนแปลงนโยบายทั้งที่เคยยืนยันหลักการในการเปิดเผยข้อมูลมาก่อน Sutskever ตอบว่า “สิ่งที่เราเคยคิดมันผิด” โดยอธิบายเพิ่มว่า “AI เป็นสิ่งที่มีศักยภาพสูงจนไม่น่าเชื่อ และไม่สมเหตุสมผลที่จะทำให้เป็น open-source” พร้อมเสริมว่า “เชื่อว่าในอนาคตทุกคนจะคิดเหมือนกัน”
กระแสดังกล่าวก่อให้เกิดการวิพากษ์วิจารณ์ไปอย่างกว้างขวาง และคนที่ขาดไปไม่ได้คงเป็น Elon Musk ผู้ร่วมก่อตั้ง OpenAI ในปี 2015 ก่อนจะลาออกจากบอร์ดบริหารในปี 2018 โดยก่อนหน้านี้ Musk ได้วิจารณ์นโยบายการ “เก็บเงินสมาชิก” เพื่อให้เข้าถึง ChatGPT ได้มากขึ้นว่าเป็นการ “ผิดสัญญา” ที่เคยพูดกันไว้เมื่อครั้งก่อตั้งองค์กร
ล่าสุด Elon Musk ได้ออกมาทวิตว่า เขาไม่เข้าใจเลยว่าทำไมองค์กรไม่แสวงผลกำไรที่เขาเคยบริจาคไป 100 ล้านดอลลาร์ถึงกลายเป็น องค์กรแสวงกำไรจำกัด (cap for-profit) ที่มีมูลค่ามากถึง 3 หมื่นล้านเหรียญไปได้ แถมเหน็บว่า “ถ้าเรื่องแบบนี้มันถูกกฎหมาย ทำไมคนอื่นถึงไม่ทำกันล่ะ”
และก่อนหน้านี้ Musk ได้เคยเหน็บว่าเขาก่อตั้ง OpenAI ขึ้นด้วยแนวคิดแบบ Open-source นั่นคือเห็นผลที่เขาตั้งชื่อมันว่า ‘Open’ ยังไงล่ะ
อีกหนึ่งประเด็นที่น่าสนใจซึ่งมีคนพูดถึงไม่น้อยกว่ากันคือการไม่เปิดเผยตัวโมเดลรวมถึงตัวข้อมูลในการใช้ฝึกฝน AI ในครั้งนี้อาจเกี่ยวเนื่องมาจากประเด็นทางกฎหมาย ที่อาจมีการละเมิดลิขสิทธิ์ภาพนิ่งและภาพเคลื่อนไหวได้
Sutskever ตอบกับทาง The Verge ว่า “มันเป็นเรื่องของเทคโนโลยี” พร้อมอธิบายเสริมว่า “เหตุผลที่ไม่เปิดเผยข้อมูลนำเข้า เป็นเหตุผลเดียวกับที่ไม่บอกขนาดพารามิเตอร์ของโมเดลนั่นแหละ”
เลยทำให้ไม่มีใครสามารถรู้ได้ว่าข้อมูลเหล่านั้นผิดลิขสิทธิ์จริงหรือเปล่า และทำได้แค่คาดเดาจากคำตอบอันกำกวมของ Sutskever เพียงเท่านั้น
จากจุดนี้เองทำให้หลายคนมีความกังวล และเรียกร้องให้รัฐเข้ามาดูแลควบคุมการทำงานเกี่ยวกับการพัฒนา AI มากขึ้น เพราะไม่สามารถรู้ได้เลยว่าการพัฒนา AI “แบบปิด” เหล่านี้ กำลังนำไปสู่อะไร และกำลังสร้างอะไรขึ้นมาบ้าง
ดูเหมือนทุกคนเองก็จะเริ่มเห็นภาพของ “ภัยต่อมนุษยชาติ” ที่ Musk เคยพูดถึง และถูกล้อเลียนมาตลอดมากขึ้นแล้ว
การไม่เปิดเผยโมเดลของ ChatGPT-4 ครั้งนี้ จึงเป็นเหมือน “หลุม” สำคัญในช่วงเวลาที่ทุกคนต่างสงสัยในความสามารถของ AI เพราะเมื่อเราไม่สามารถเข้าถึงวิธีการได้มาของข้อมูลของ AI ได้ ก็จะนำไปสู่ข้อกังขาด้านความถูกต้อง ความปลอดภัย และความมั่นใจในการนำไปใช้งานด้วย
ทำให้นี่อาจจะเป็นการ “พลิกกระดาน” ของโลกที่กำลังโน้มเอียงไปทางเดียวกันว่า AI กำลังจะเข้ามามีบทบาทต่อชีวิตมนุษย์มากขึ้น ไปสู่การพูดถึง “การตรวจสอบ” ความถูกต้องและแม่นยำของ AI อย่างเข้มข้นขึ้นได้ในอนาคต
จากที่มนุษย์กำลังจะสิ้นหวังโดยการรุกรานของ AI กลายเป็นเติมความหวังให้กับมวลมนุษยชาติในการสร้าง “ข้อสงสัย” ให้มนุษย์สามารถใช้มา “โต้แย้ง” กับ AI ได้ไปซะอย่างนั้น หรือนี่จะเป็นสิ่งที่เรียกว่า “ผลประโยชน์ต่อมนุษยชาติ” ที่ OpenAI เคยพูดไว้
มันคงเป็นไปได้ยากที่จะทำให้คนรู้สึก “ปลอดภัย” กับ “ความไม่โปร่งใส” แม้ผู้ให้บริการจะบอกว่าจำเป็นต้องทำ “เพื่อความปลอดภัย” (แม้จริง ๆ จะยอมรับว่าเป็นเรื่องของธุรกิจมากกว่า)