Washington, PCplus – Di Amerika, ada diskusi menarik tentang bukti digital yang dipakai di persidangan. Para hakim ternyata meragukan bukti-bukti yang mungkin dipakai saat sidang berlangsung. Penyebabnya tidak bukan adalah Kecerdasan Buatan (AI). Mereka menganggap, bukti ini yang dihasilkan AI ini punya resiko manipulasi. Termasuk menghasilkan Deepfake yang bisa menganggu persidangan.
Baca Juga: Awas, Unlock Modem Bolt! Bisa Dipidana
Diskusi ini berlangsung di tengah upaya pengadilan federal, dan negara bagian di seluruh Amerika, untuk mengatasi munculnya model AI generatif (seperti yang digunakan oleh ChatGPT OpenAI atau Stable Diffusion Stability AI). Tidak heran, sebab model ini dapat dilatih pada dataset besar dengan tujuan menghasilkan teks, gambar, audio, atau video yang realistis.
Dalam pertemuan yang mempublikasikan artikel sebanyak 358 halaman, komite memberikan definisi ini tentang deepfake dan masalah yang mungkin ditimbulkan oleh media yang dihasilkan AI dalam persidangan hukum.
Buat yang belum tahu, Deepfake adalah media audiovisual palsu atau tiruan yang disiapkan oleh program perangkat lunak menggunakan kecerdasan buatan. Tentu saja, foto dan video selalu dapat dipalsukan, tetapi perkembangan dalam AI membuat deepfake jauh lebih sulit untuk dideteksi. Perangkat lunak untuk membuat deepfake sudah tersedia secara bebas di internet dan cukup mudah digunakan oleh siapa saja. Seiring dengan peningkatan kemudahan penggunaan perangkat lunak dan keaslian video itu, bakal sulit bagi komputer, apalagi hakim persidangan, untuk membedakan mana yang asli dengan palsu.
Bukti harus dipastikan asli di pengadilan
Selama sidang tiga jam, panel berjuang dengan pertanyaan ini. “Apakah aturan yang ada, yang mendahului munculnya AI generatif, cukup untuk memastikan keandalan dan keaslian bukti yang disajikan di pengadilan?”
Beberapa hakim dalam panel itu, seperti Richard Sullivan dan Valerie Caproni, dilaporkan menyatakan keraguan tentang urgensi masalah tersebut. Mereka mencatat bahwa sejauh sangat sedikit kasus di mana hakim diminta untuk mengecualikan bukti yang dihasilkan AI.
“Saya tidak yakin ini adalah krisis seperti yang digambarkan, dan saya tidak yakin hakim tidak memiliki alat yang sudah ada untuk mengatasinya,” jelas Hakim Sullivan, seperti dikutip dari Reuters.
AI punya manfaat untuk penggugat dan hakim
Tahun lalu, Ketua Mahkamah Agung AS John Roberts mengakui manfaat potensial AI bagi penggugat dan hakim. Ia menekankan perlunya peran yudikatif untuk mempertimbangkan penggunaannya yang tepat dalam litigasi. Hakim Distrik AS Patrick Schiltz, mengatakan bahwa menentukan bagaimana yudikatif dapat bereaksi terbaik terhadap AI adalah salah satu prioritas Roberts.
Mereka juga mempertimbangkan beberapa perubahan aturan terkait deepfake. Dalam agenda pertemuan, Hakim Distrik AS Paul Grimm dan pengacara Maura Grossman mengusulkan modifikasi Aturan Federal 901(b)(9), yang melibatkan otentikasi atau identifikasi bukti. Mereka juga merekomendasikan penambahan aturan baru, 901©, yang berbunyi sebagai berikut:
“901©: Bukti Elektronik yang Berpotensi Dipalsukan atau Diubah. Jika pihak yang menantang keaslian bukti yang dihasilkan komputer atau bukti elektronik lainnya menunjukkan kepada pengadilan bahwa lebih mungkin daripada tidak baik dipalsukan atau diubah sebagian atau seluruhnya, bukti tersebut hanya dapat diterima jika pemohon menunjukkan bahwa nilai probatifnya melebihi efek prasangka terhadap pihak yang menantang bukti tersebut.
Perlu revisi aturan tentang bukti digital persidangan
Dalam diskusi itu, mereka sepakat bahwa usulan untuk mengatasi kekhawatiran tentang bukti deepfake tidak berfungsi sebagaimana mestinya. Sehingga aturan perlu dikerjakan ulang sebelum dipertimbangkan kembali nanti.
Usulan lain oleh Andrea Roth, seorang profesor hukum di Universitas California, Berkeley, menyarankan agar bukti yang dihasilkan mesin tunduk pada persyaratan keandalan yang sama seperti saksi ahli. Namun, Hakim Schiltz memperingatkan bahwa aturan seperti itu dapat menghambat penuntutan. Salah satunya dengan memungkinkan pengacara untuk menantang bukti digital apa pun tanpa menetapkan alasan untuk mempertanyakannya.
Untuk saat ini, belum ada perubahan aturan yang definitif. Namun, kita menyaksikan langkah pertama dari bagaimana sistem keadilan Amerika akan beradaptasi dengan kelas teknologi penghasil media yang sepenuhnya baru.
Menyingkirkan risiko dari bukti yang dihasilkan AI telah menyebabkan momen memalukan bagi pengacara di pengadilan selama dua tahun terakhir. Pada Mei 2023, pengacara AS Steven Schwartz meminta maaf kepada hakim karena menggunakan ChatGPT untuk membantu menulis pengajuan pengadilan. Hasil tulisan pengajuan itu ternyata tidak akurat karena mengutip enam kasus yang tidak ada. Hal ini kemudian pertanyaan serius tentang keandalan AI dalam penelitian hukum. Ada juga kasus pada bulan November, dimana pengacara untuk Michael Cohen mengutip tiga kasus palsu yang berpotensi dipengaruhi oleh asisten AI yang semuanya adalah karangan.