Hakim AS Putuskan Percakapan AI Bisa Digunakan Sebagai Bukti Hukum

Sedang Trending 4 hari yang lalu

Seorang hakim federal di New York, Amerika Serikat, pada Februari 2026 memutuskan bahwa percakapan antara pengguna dan chatbot kecerdasan buatan (AI) tidak dapat dilindungi oleh aturan kerahasiaan advokat-klien. Putusan ini muncul dalam kasus penipuan sekuritas yang melibatkan Bradley Heppner, mantan petinggi perusahaan layanan keuangan yang bangkrut.

Hakim Distrik AS Jed Rakoff memerintahkan Heppner untuk menyerahkan 31 dokumen yang dihasilkan oleh chatbot Claude milik Anthropic. Dokumen tersebut berisi persiapan laporan kasus yang disusun Heppner untuk dibagikan kepada tim pengacaranya.

Jaksa penuntut berargumen bahwa mereka berhak menuntut materi tersebut karena pengacara pembela tidak terlibat langsung dalam pembuatan konten dengan AI. Selain itu, status hukum chatbot tidak dianggap setara dengan pengacara manusia dalam hal perlindungan komunikasi.

"Kami memberi tahu klien kami: Anda harus berhati-hati di sini," kata Alexandria Gutiérrez Swette, seorang pengacara di firma hukum Kobre & Kim yang berbasis di New York, dilansir dari Reuters.

Berdasarkan catatan pengadilan, Jed Rakoff menegaskan tidak ada hubungan pengacara-klien yang bisa eksis antara pengguna AI dan platform seperti Claude. Ia juga menyoroti ketentuan layanan Anthropic yang menyatakan pengguna tidak memiliki ekspektasi privasi atas masukan mereka.

Di sisi lain, Hakim Magistrate AS Anthony Patti di Michigan memberikan putusan berbeda pada hari yang sama. Ia menyatakan percakapan ChatGPT seorang penggugat dalam kasus ketenagakerjaan merupakan produk kerja pribadi dan bukan komunikasi dengan pihak lain yang bisa disita lawan.

Menanggapi ketidakpastian ini, belasan firma hukum besar di AS mulai memperbarui kontrak kerja dengan klien. Firma Sher Tremonte di New York kini menyertakan klausul bahwa membocorkan komunikasi rahasia ke platform AI pihak ketiga dapat membatalkan hak istimewa perlindungan hukum.

Beberapa pengacara menyarankan klien untuk hanya menggunakan sistem AI tertutup milik perusahaan. Firma Debevoise & Plimpton bahkan merekomendasikan penggunaan kalimat spesifik dalam prompt AI untuk menegaskan bahwa riset dilakukan di bawah arahan penasihat hukum guna memperkuat peluang perlindungan di pengadilan.