ปัญญาประดิษฐ์ (Artificial Intelligence: AI) ได้ก้าวเข้ามาเปลี่ยนแปลงอุตสาหกรรมต่าง ๆ ไปอย่างมากมาย ตั้งแต่อุตสาหกรรมการดูแลสุขภาพและยานยนต์ไปจนถึงอุตสาหกรรมการตลาดและการเงิน โดยในปัจจุบันศักยภาพของ AI กำลังถูกนำไปทดสอบในจุดที่สำคัญที่สุดของอุตสาหกรรมเทคโนโลยีบล็อกเชน (Blockchain) อย่างหนึ่ง ซึ่งก็คือความปลอดภัยของสัญญาอัจฉริยะ (Smart Contract) นั่นเอง

มีการทดสอบมากมายที่แสดงให้เห็นถึงศักยภาพที่ยอดเยี่ยมสำหรับการตรวจสอบบล็อกเชนโดยใช้ AI อย่างไรก็ตาม เทคโนโลยีดังกล่าวยังคงขาดคุณสมบัติที่สำคัญบางประการที่พบได้ในมนุษย์ เช่น สัญชาตญาณ การตัดสินใจแบบละเอียด และความเชี่ยวชาญเฉพาะด้าน

เมื่อเร็ว ๆ นี้ OpenZeppelin องค์กรสำหรับการจัดการแอปพลิเคชันแบบกระจายศูนย์ (Decentralized Application: DApp) ได้ทำการทดลองติดต่อกันหลายครั้งโดยมุ่งเน้นไปที่การใช้งาน AI ในการตรวจจับช่องโหว่ของสัญญาอัจฉริยะ โดยการทดลองดังกล่าวใช้โมเดลภาษารุ่นล่าสุดอย่าง GPT-4 ของแชตบอต ChatGPT ที่พัฒนาโดย OpenAI เพื่อระบุปัญหาด้านความปลอดภัยในสัญญาอัจฉริยะของ Solidity ซึ่งเป็นภาษาโปรแกรมที่พัฒนาขึ้นสำหรับการสร้างสัญญาอัจฉริยะบนเครือข่ายบล็อกเชน Ethereum

โดยโค้ดที่นำมาใช้ในการทดลองดังกล่าวมาจากเว็บไซต์เกมแฮกสัญญาอัจฉริยะอย่าง Ethernaut ซึ่งออกแบบมาเพื่อช่วยให้ผู้ตรวจสอบสามารถเรียนรู้วิธีตรวจหาช่องโหว่ ซึ่งในระหว่างการทดลองดังกล่าว GPT-4 ก็ได้ผ่านด่านถึง 20 ด่านจากทั้งหมด 28 ด่านเลยทีเดียว

ถึงแม้ว่าผลการทดลองจะประสบความสำเร็จเป็นส่วนใหญ่ แต่ในบางกรณี AI ก็จำเป็นที่จะต้องได้รับการกระตุ้นเพื่อให้สร้างคำตอบที่ถูกต้องด้วยการถามคำถามที่ชี้นำ เช่น “คุณเปลี่ยนที่อยู่ Library (บล็อกบรรจุโค้ดที่นำกลับมาใช้อีกได้) ในสัญญาอัจฉริยะก่อนหน้าได้หรือไม่” 

ในกรณีที่เลวร้ายที่สุด GPT-4 จะไม่สามารถตรวจจับช่องโหว่ได้แม้จะมีการเขียนทุกอย่างไว้ในคำถามอย่างชัดเจน เช่น “ประตู 1 และประตู 2 สามารถผ่านไปได้หากคุณเรียกใช้ฟังก์ชันจากภายในฟังก์ชัน Constructor แล้วทีนี้คุณจะสามารถเข้าไปยังสัญญาอัจฉริยะของระบบป้องกัน GatekeeperTwo ได้อย่างไร” โดย ณ จุดหนึ่ง AI ก็ได้สร้างช่องโหว่ที่ไม่มีอยู่จริงขึ้นมา

กรณีดังกล่าวแสดงให้เห็นถึงข้อจำกัดของ AI ในปัจจุบัน กระนั้นก็ตาม GPT-4 ก็มีความโดดเด่นมากกว่าโมเดลภาษารุ่นก่อนหน้าอย่าง GPT-3.5 ที่สามารถตรวจจับช่องโหว่ของสัญญาอัจฉริยะได้จนถึงเลเวล 5 จาก 26 เลเวลเท่านั้น โดย GPT-4 และ GPT-3.5 ได้รับการฝึกฝนโดยใช้ข้อมูลจนถึงช่วงเดือนกันยายนปี 2021 ด้วยการใช้วิธีการเรียนรู้แบบเสริมแรง (Reinforcement Learning) จากความคิดเห็นของมนุษย์ ซึ่งเป็นเทคนิคที่เกี่ยวข้องกับการป้อนวงจรความคิดเห็นของมนุษย์เพื่อปรับปรุงโมเดลภาษาในระหว่างการฝึกฝน

ด้าน Coinbase แพลตฟอร์มซื้อขายสกุลเงินคริปโต ก็ได้จัดทำการทดลองและได้ผลลัพธ์ที่คล้าย ๆ กัน โดยการทดลองของ Coinbase ใช้ประโยชน์จาก ChatGPT ในการตรวจสอบความปลอดภัยของโทเคน ซึ่งแม้ว่า AI ดังกล่าวจะสามารถตรวจสอบสัญญาอัจฉริยะจำนวนมากได้แต่ก็ยังคงมีปัญหาในการระบุผลลัพธ์แก่สัญญาอัจฉริยะบางอันอยู่ นอกจากนี้ ยังมีบางกรณีที่ ChatGPT ระบุสินทรัพย์ที่มีความเสี่ยงสูงเป็นสินทรัพย์ที่มีความเสี่ยงต่ำอีกด้วย

งานวิจัยในช่วงที่ผ่านมาแสดงให้เห็นว่า แม้ในปัจจุบัน AI สามารถเป็นเครื่องมือที่มีประโยชน์ในการระบุช่องโหว่ด้านความปลอดภัยได้ แต่ยังคงไม่สามารถเข้ามาแทนที่วิจารณญาณและความเชี่ยวชาญเฉพาะด้านของผู้เชี่ยวชาญด้านความปลอดภัยของสัญญาอัจฉริยะที่เป็นมนุษย์ได้ แต่ในอนาคต มีความเป็นไปได้ว่า การรักษาความปลอดภัยของสัญญาอัจฉริยะจะขึ้นอยู่กับการผสมผสานความเชี่ยวชาญเฉพาะด้านของมนุษย์และเครื่องมือ AI ที่ก้าวหน้าอย่างต่อเนื่อง