ข่าว

Vitalik Buterin เตือนความเสี่ยงการขโมยข้อมูลใน OpenClaw

โดย

Shweta Chakrawarty

Shweta Chakrawarty

Vitalik Buterin เตือนว่า OpenClaw ซึ่งเป็นที่เก็บข้อมูล AI agent ชั้นนำ มีช่องโหว่ที่สำคัญซึ่งอนุญาตให้มีการขโมยข้อมูลอย่างเงียบ ๆ.

Vitalik Buterin เตือนความเสี่ยงการขโมยข้อมูลใน OpenClaw

สรุปด่วน

สรุปสร้างโดย AI ตรวจสอบโดยห้องข่าว

  • นักวิจัยพบว่า 15% ของ "skills" ใน OpenClaw มีคำสั่งที่เป็นอันตรายสำหรับการขโมยข้อมูลในพื้นหลัง.

  • ผู้โจมตีสามารถใช้คำสั่ง "curl" ที่ซ่อนอยู่เพื่อข้ามความยินยอมของผู้ใช้และส่งไฟล์ที่ละเอียดอ่อนไปยังเซิร์ฟเวอร์ระยะไกล.

  • ช่องโหว่ด้านความปลอดภัยทำให้ AI agents สามารถปรับเปลี่ยนคำสั่งของระบบหรือช่องทางการสื่อสารได้โดยไม่ต้องมีการอนุมัติจากมนุษย์.

  • Buterin แนะนำให้ใช้โมเดล AI ที่ตั้งอยู่ในท้องถิ่นและการใช้ sandboxing เพื่อลดความเสี่ยงจากเครื่องมือ AI ที่เคลื่อนที่อย่างรวดเร็วและไม่ได้รับการตรวจสอบ.

Vitalik Buterin ได้ยกประเด็นความกังวลเกี่ยวกับความเสี่ยงด้านความปลอดภัยใน OpenClaw ซึ่งเป็นหนึ่งในที่เก็บข้อมูลที่เติบโตเร็วที่สุดบน GitHub เขาเตือนว่าเครื่องมือนี้อาจเปิดเผยผู้ใช้ต่อการขโมยข้อมูลอย่างเงียบ ๆ และการเข้ายึดระบบ ความเห็นของเขามาในขณะที่ OpenClaw กำลังได้รับการนำไปใช้อย่างรวดเร็วในหมู่ผู้พัฒนาที่สร้าง AI agents

ตามที่นักวิจัยระบุ ปัญหานี้มีความร้ายแรง การโต้ตอบเพียงเล็กน้อยกับหน้าเว็บที่เป็นอันตรายอาจทำให้ระบบของผู้ใช้ถูกโจมตี บางครั้ง AI agent อาจดำเนินการคำสั่งที่เป็นอันตรายโดยที่ผู้ใช้ไม่รู้ตัว

การทำงานของการโจมตี

ความเสี่ยงเริ่มต้นจากวิธีที่ OpenClaw จัดการข้อมูลภายนอก เมื่อระบบอ่านเนื้อหาจากเว็บไซต์ มันอาจปฏิบัติตามคำสั่งที่ซ่อนอยู่ ตัวอย่างเช่น หน้าเว็บที่เป็นอันตรายสามารถหลอกล่อ AI ให้ดาวน์โหลดสคริปต์ จากนั้นมันสามารถเรียกใช้สคริปต์นั้นในพื้นหลังได้ โดยกระบวนการนี้เกิดขึ้นอย่างเงียบ ๆ ผู้ใช้อาจไม่เห็นคำเตือนใด ๆ

ในกรณีที่มีการรายงานหนึ่ง เครื่องมือได้ดำเนินการคำสั่งที่ซ่อนอยู่โดยใช้ “curl” คำสั่งนี้ได้ส่งข้อมูลผู้ใช้ไปยังเซิร์ฟเวอร์ภายนอกอย่างเงียบ ๆ ส่งผลให้ข้อมูลที่ละเอียดอ่อนอาจถูกเปิดเผยโดยไม่ได้รับความยินยอม นอกจากนี้ OpenClaw agents ยังสามารถเปลี่ยนแปลงการตั้งค่าของระบบได้ด้วยตนเอง พวกเขาสามารถเพิ่มช่องทางการสื่อสารใหม่หรืออัปเดตคำสั่งภายใน ซึ่งเพิ่มความเสี่ยงในการใช้งานที่ไม่เหมาะสมหากการควบคุมอ่อนแอ

การวิจัยแสดงให้เห็นถึงความเสี่ยงที่แพร่หลาย

ผู้เชี่ยวชาญด้านความปลอดภัยได้ทดสอบระบบแล้ว ผลการวิจัยของพวกเขาทำให้เกิดความกังวล การศึกษาหนึ่งแสดงให้เห็นว่าประมาณ 15% ของ “skills” ใน OpenClaw มีคำสั่งที่เป็นอันตราย Skills เหล่านี้ทำหน้าที่เหมือนปลั๊กอินที่ขยายความสามารถของ agent แต่พวกเขายังสามารถทำหน้าที่เป็นจุดเริ่มต้นสำหรับ การโจมตี.

ด้วยเหตุนี้ เครื่องมือที่ดูเหมือนเชื่อถือได้อาจมีความเสี่ยงที่ซ่อนอยู่ ผู้ใช้ที่ติดตั้ง skills หลายตัวมีโอกาสสูงขึ้นในการถูกเปิดเผย ในขณะที่การเติบโตอย่างรวดเร็วของ OpenClaw เพิ่มแรงกดดัน ผู้พัฒนาหลายคนกำลังสร้างและแบ่งปันเครื่องมืออย่างรวดเร็ว แต่การตรวจสอบความปลอดภัยอาจไม่ทัน

ปัญหาที่ใหญ่กว่าที่ไม่ใช่แค่เครื่องมือเดียว

Vitalik Buterin ได้ชี้แจงว่าปัญหานี้ไม่ใช่แค่เกี่ยวกับ OpenClaw เท่านั้น แต่เขายังชี้ให้เห็นถึงปัญหาที่กว้างขึ้นในพื้นที่ AI เขากล่าวว่าโครงการหลายโครงการเคลื่อนที่อย่างรวดเร็วแต่ละเลยความปลอดภัย ซึ่งสร้างสภาพแวดล้อมที่เครื่องมือที่มีความเสี่ยงแพร่กระจายได้ง่าย

อย่างไรก็ตาม เขายังได้แบ่งปันวิสัยทัศน์ที่เป็นบวกมากขึ้น เขาเชื่อว่าระบบ AI ท้องถิ่นสามารถปรับปรุงความเป็นส่วนตัวได้หากสร้างอย่างระมัดระวัง ตัวอย่างเช่น การรันโมเดลบนอุปกรณ์ส่วนตัวสามารถลดการรั่วไหลของข้อมูล เขายังแนะนำให้เพิ่มมาตรการป้องกัน ซึ่งรวมถึงการใช้เครื่องมือ sandboxing การจำกัดสิทธิ์ และการต้องได้รับการอนุมัติจากผู้ใช้สำหรับการดำเนินการที่ละเอียดอ่อน

อะไรจะเกิดขึ้นต่อไป?

การเตือนนี้เกิดขึ้นในช่วงเวลาที่สำคัญ AI agents กำลังมีความแข็งแกร่งและเป็นที่แพร่หลายมากขึ้น เมื่อการนำไปใช้เพิ่มขึ้น ความเสี่ยงก็เพิ่มขึ้นเช่นกัน ผู้พัฒนาต้องเผชิญกับความท้าทายที่สำคัญ พวกเขาต้องสร้างสมดุลระหว่างความเร็วและความปลอดภัย 

สำหรับผู้ใช้ ข้อความนั้นชัดเจน ระมัดระวังเมื่อใช้เครื่องมือ AI ใหม่ หลีกเลี่ยงปลั๊กอินที่ไม่รู้จัก ตรวจสอบสิทธิ์ก่อนดำเนินการเสมอ แนวทางปฏิบัติด้านความปลอดภัยที่เข้มแข็งจะตัดสินว่าระบบเหล่านี้จะปลอดภัยเพียงใด ขณะนี้ การเตือนของ Vitalik Buterin ทำหน้าที่เป็นการเตือนใจ นวัตกรรมเคลื่อนที่อย่างรวดเร็ว แต่ความปลอดภัยต้องตามให้ทัน

Google News Icon

ติดตามเราบน Google News

รับข้อมูลเชิงลึกและการอัปเดตคริปโตล่าสุด

ติดตาม