Kecanggihan teknologi seperti ChatGPT membuat banyak praktik hukum menjadi semakin efisien. Namun, ketika AI digunakan tanpa verifikasi yang memadai, risiko etik dan profesional bisa sangat tinggi.
Berikut rangkaian kasus menonjol di dunia yang menunjukkan bagaimana penggunaan ChatGPT oleh pengacara berujung sanksi serius.
Kasus Pengacara Didenda Karena Gunakan AI
1. New York – Denda US$5.000 karena Kutipan Kasus Palsu
Dua pengacara yang berbasis di New York, Steven Schwartz dan Peter LoDuca, bersama firma mereka Levidow, Levidow & Oberman, menerima denda sebesar US$5.000 setelah pengadilan menemukan bahwa mereka mengajukan brief berisi enam kutipan kasus yang tidak ada, hasil generasi ChatGPT pada 2023 lalu.
Melansir investing.com, Schwartz mengakui bahwa ia menggunakan ChatGPT untuk meriset berkas gugatan kliennya, dan tanpa sadar menyantumkan kutipan palsu tentang sebuah kasus.
2. Alabama (AS) – Tiga Pengacara dipecat dari Kasus Karena Kutipan AI
Firma hukum Butler Snow di Alabama menerima kecaman keras dari pengadilan setelah tiga pengacaranya mengajukan dokumen dengan kutipan kasus palsu yang dihasilkan oleh ChatGPT. Hukuman termasuk pencopotan dari kasus, pengumuman sanksi kepada klien dan rekan lawan, serta rujukan ke Dewan Profesional Hukum negara bagian.
Para pengacara yang tergabung dalam firma tersebut, mengakui bahwa mereka beberapa kali menggunakan kecerdasan buatan untuk meneliti yurisprudensi tanpa verifikasi lebih lanjut. Kutipan-kutipan tersebut ternyata adalah “halusinasi” yang dibuat oleh AI.
3. California – Denda US$10.000 untuk Pengacara yang Gunakan Brief AI
Pengacara Los Angeles Amir Mostafavi dijatuhi denda US$10.000 oleh Pengadilan Banding California karena 21 dari 23 kutipan dalam briefnya adalah hasil generasi AI dan tidak pernah dikonfirmasi keberadaannya. Pengadilan menyebut berkas tersebut “frivolous” dan memperingatkan bahwa penggunaan AI tanpa pemeriksaan bisa menimbulkan sanksi berat.
Menurut CalMatters , sanksi tersebut tampaknya merupakan yang terbesar di California terhadap seorang pengacara karena penyalahgunaan teks yang dihasilkan AI.
Mostafavi mengatakan kepada pengadilan bahwa ia menyusun bandingnya sendiri, tetapi kemudian memeriksanya melalui ChatGPT dengan harapan dapat memperbaiki penulisannya. Ia mengakui bahwa ia tidak meninjau keluaran yang dihasilkan AI sebelum mengajukan banding, dan mengatakan ia tidak menyadari bahwa alat tersebut mungkin menyisipkan kutipan kasus atau memalsukan materi.
Baca Juga: Rekomendasi AI Tools untuk Praktisi Hukum
Lebih dari 120 Insiden Halusinasi AI oleh Pengacara
Damien Charlotin, seorang analis dan konsultan data hukum, menyusun basis data publik berisi 120 kasus di mana pengadilan menemukan bahwa AI menghasilkan halusinasi dalam kutipan, menciptakan perkara fiktif, atau mengutip otoritas hukum yang sebenarnya tidak pernah ada. Jumlah tersebut kemungkinan merupakan nilai batas bawah, karena masih terdapat kasus lain yang tidak terdeteksi atau tidak mendapat perhatian hakim.
Walaupun sebagian besar kesalahan terjadi pada pihak yang mewakili dirinya sendiri di pengadilan, data menunjukkan bahwa pengacara dan profesional hukum lainnya, seperti paralegal, juga semakin sering melakukan kesalahan serupa.
Pada tahun 2023, dari 10 kasus halusinasi AI yang terdeteksi, tujuh di antaranya dilakukan oleh pihak penggugat yang beracara sendiri (pro se), sedangkan tiga kasus lainnya merupakan kesalahan pengacara, sebagaimana dilansir dari BusinessInsider. Namun, pada bulan lalu, setidaknya 13 dari 23 kasus kesalahan terkait AI justru dilakukan oleh para profesional hukum.
Mengapa Hal Ini Terjadi?
- Penggunaan AI seperti ChatGPT dianggap “cepat dan praktis”, sehingga pengacara terkadang kurang memeriksa hasilnya secara mendalam.
- ChatGPT dan model serupa kerap menghasilkan made‑up citations atau “luaran” yang tampak sah namun tidak ada di basis data resmi.
- Aturan etik profesi mengharuskan pengacara memverifikasi segala data yang diajukan ke pengadilan — kegagalan melakukannya bisa dianggap pelanggaran berat.
Pelajaran Penting bagi Praktisi Hukum
- AI boleh digunakan sebagai alat bantu, tapi pengacara tetap bertanggung jawab penuh atas keakuratan berkas hukum.
- Verifikasi silang terhadap referensi, putusan, dan regulasi tetap wajib dilakukan.
- Firm‑wide control, pelatihan dan standard internal penggunaan AI harus segera dibangun.
Kesimpulan
Kasus‑kasus di atas memperingatkan bahwa walau ChatGPT dan teknologi AI lain membawa kemajuan, mereka bukan pengganti profesional hukum yang teliti. Bagi advokat yang ingin memanfaatkan AI secara aman dan efektif, sangat disarankan menggunakan platform riil yang menyediakan database hukum lengkap dan terverifikasi, seperti Legal Hero.
Legal Hero merupakan platform riset hukum berbasis AI dengan dukungan jutaan dokumen putusan dan peraturan terverifikasi sesuai dengan regulasi di Indonesia. Tak hanya itu, Legal Hero juga memungkinkan penggunanya untuk melakukan Legal Drafting otomatis dan review dokumen untuk mencari klausul-klausul yang bermasalah. Semua fitur tersebut tentu saja didukung dengan AI yang cerdas dan paham terminologi hukum di Indonesia. Gunakan Legal Hero untuk mempertaham analisis hukum Anda!