ทนายความในสหรัฐกำลังยื่นคำเบิกความที่สร้างด้วย AI พร้อมคำอ้างอิงที่เป็นเท็จในอัตราที่เร่งขึ้น คำสั่งลงโทษของศาลกำลังทำสถิติใหม่ และเทคโนโลยีกำลังแทรกซึมลึกลงไปในซอฟต์แวร์ด้านกฎหมายจนผู้เชี่ยวชาญกล่าวว่ากฎการเปิดเผยข้อมูลภาคบังคับอาจล้าสมัยไปแล้ว
สรุป
ทนายความในสหรัฐกำลังยื่นคำเบิกความที่สร้างด้วย AI พร้อมคำอ้างอิงที่เป็นเท็จในอัตราที่เร่งขึ้น คำสั่งลงโทษของศาลกำลังทำสถิติใหม่ และเทคโนโลยีกำลังแทรกซึมลึกลงไปในซอฟต์แวร์ด้านกฎหมายจนผู้เชี่ยวชาญกล่าวว่ากฎการเปิดเผยข้อมูลภาคบังคับอาจล้าสมัยไปแล้ว ตามรายงานสืบสวนของ NPR วันที่ 3 เมษายน ปริมาณคำสั่งลงโทษของศาลสำหรับความผิดพลาดที่สร้างด้วย AI พุ่งสูงขึ้นตลอดปี 2025 และยังไม่ชะลอตัวในปี 2026 — รูปแบบดังกล่าวส่งผลโดยตรงต่อทุกภาคส่วน รวมถึงวงการคริปโต ซึ่งความเสี่ยงทางกฎหมายขึ้นอยู่กับคุณภาพของคำเบิกความที่ยื่นเพื่อใช้ปกป้อง
Damien Charlotin นักวิจัยจาก HEC Paris ผู้ดูแลการนับยอดทั่วโลกของคำสั่งลงโทษของศาลสำหรับข้อผิดพลาดด้านกฎหมายที่สร้างด้วย AI บอกกับ NPR ว่าอัตราไม่ได้ชะลอลง “เมื่อไม่นานมานี้ เรามี 10 คดีจาก 10 ศาลที่แตกต่างกันในวันเดียว” เขากล่าว “เรามีปัญหานี้เพราะว่า AI เก่งเกินไป — แต่ไม่สมบูรณ์แบบ” คดีที่โดดเด่นที่สุดในรอบที่ผ่านมา คือคดีของทนายความของ CEO ของ MyPillow อย่าง Mike Lindell ซึ่งถูกปรับคนละ $3,000 จากการยื่นคำเบิกความที่มีคำอ้างอิงที่เป็นเท็จ
ศาลรัฐบาลกลางอาจเพิ่งทำสถิติใหม่เมื่อเดือนที่แล้ว เมื่อทนายความที่ตั้งอยู่ในรัฐโอเรกอนถูกสั่งให้จ่ายเงิน $109,700 ในค่าปรับและค่าใช้จ่ายในการลงโทษ เมื่อพิจารณาจากศาลระดับสูงของรัฐก็มีส่วนเกี่ยวข้องเช่นกัน: ศาลสูงของเนแบรสกาตั้งข้อซักถามทนายความจากเมืองโอมาฮาในเดือนกุมภาพันธ์เกี่ยวกับคำอ้างอิงที่เป็นเท็จ และส่งเรื่องเพื่อดำเนินการด้านวินัย และฉากที่คล้ายคลึงกันนี้ก็เกิดขึ้นในที่สาธารณะเช่นกันที่ศาลสูงสุดของจอร์เจียในเดือนมีนาคม “ผมประหลาดใจที่ผู้คนยังทำแบบนี้อยู่ ทั้งที่มันอยู่ในข่าวแล้ว” Carla Wale รองคณบดีด้านสารสนเทศและเทคโนโลยีของคณะนิติศาสตร์ มหาวิทยาลัยวอชิงตัน กล่าว
ศาลบางแห่งตอบสนองด้วยการกำหนดให้ทนายความติดป้ายกำกับว่ามีเนื้อหาที่ช่วยโดย AI ในคำยื่นของตน Joe Patrice บรรณาธิการอาวุโสของ Above the Law และนักกฎหมายที่ผันตัวเป็นนักข่าว บอกกับ NPR ว่ากฎเหล่านี้มีแนวโน้มจะใช้การไม่ได้เกือบทันที “มันจะถูกรวมเข้ากับวิธีที่ทุกอย่างทำงานมากจน หากคุณต้องตั้งใจปฏิบัติตามกฎ คุณคงต้องใส่คำว่า ‘เฮ้ นี่คือสิ่งที่ช่วยโดย AI’ บนทุกสิ่งที่คุณส่งออกมา ซึ่งในจุดนั้นมันก็จะกลายเป็นความพยายามที่ไร้ประโยชน์” เขากล่าว เศรษฐศาสตร์ของการเรียกเก็บเงินด้านกฎหมายก็เร่งการนำไปใช้ มากกว่าจะทำให้ช้าลงเช่นกัน เมื่อเครื่องมือ AI ลดเวลาการร่าง ทนายความและสำนักงานกฎหมายจึงเผชิญแรงกดดันให้หารูปแบบการเรียกเก็บเงินแบบใหม่ — และ Patrice ชี้ว่าแรงกดดันด้านเวลาที่เกิดขึ้น ทำให้ทนายความลังเลน้อยลงและยิ่งน่าจะยอมรับร่างแรกที่ได้จาก AI โดยไม่ตรวจสอบอย่างเพียงพอ
การเปลี่ยนทิศทางของ DOJ เองที่หันไปจากการดำเนินคดีกับนักพัฒนาคริปโต เกิดจากเหตุผลบางส่วนที่ว่าโค้ดเป็นกลาง เว้นแต่จะมีเจตนาทางอาญา — ความแตกต่างที่ต้องใช้การใช้เหตุผลทางกฎหมายอย่างรอบคอบแบบเดียวกับที่คำเบิกความที่ช่วยโดย AI อย่างเร่งรีอมักทำไม่ได้การทำซ้ำ A Texas federal court เพิ่งยกฟ้องคดีความรับผิดของซอฟต์แวร์คริปโตบางส่วน โดยอ้างอิงบันทึกของ DOJ เกี่ยวกับมาตรฐานการดำเนินคดีกับผู้พัฒนา ซึ่งแสดงให้เห็นว่าคุณภาพของการใช้เหตุผลทางกฎหมายในคดีที่เกี่ยวข้องกับ AI ส่งผลโดยตรงต่อผลลัพธ์ด้านกฎระเบียบของทั้งอุตสาหกรรม
ตัว AI เองได้เข้ามาอยู่ในขอบข่ายการถูกพิจารณาคดีนอกเหนือจากปัญหาความผิดพลาดในศาลแล้ว ในเดือนมีนาคม OpenAI ถูกฟ้องในศาลรัฐบาลกลางในอิลลินอยส์โดย Nippon Life Insurance Company of America ซึ่งอ้างว่าผู้หญิงคนหนึ่งใช้ ChatGPT เป็นที่ปรึกษาด้านกฎหมาย ได้รับคำแนะนำที่นำไปสู่คดีฟ้องที่ไร้สาระต่อบริษัทประกันภัย คำฟ้องกล่าวหาว่า OpenAI ดำเนินการฝึกฝนกฎหมายโดยไม่มีใบอนุญาต ในแถลงการณ์ที่เป็นลายลักษณ์อักษรถึง NPR OpenAI ระบุว่า: “คำร้องเรียนฉบับนี้ไม่มีมูลความจริงใดๆ ทั้งสิ้น” ในส่วนของ Wale เธอปฏิเสธทั้งสุดโต่งทั้งสองด้าน “ฉันคิดว่าทนายความที่เข้าใจวิธีใช้ AI เชิงสร้างสรรค์อย่างมีประสิทธิภาพและอย่างมีจริยธรรม จะเข้ามาแทนที่ทนายความที่ไม่เข้าใจ” เธอกล่าว “นั่นคือสิ่งที่ฉันคิดว่าสิ่งที่จะเกิดขึ้นในอนาคตคืออะไร”