Kuliah Profesor Stefan Koos Mengenai Artificial Intelligence dan Hukum
Pada tanggal 7 oktober Professor Stefan Koos, Visiting Professor dari Bundeswehr Universitaet Muenchen, memberikan kuliah mengenai Artificial Intelligence dan hukum di dalam mata kuliah Kapita Selekta, yang diampuh oleh Dr. Batara Hasibuan, dosen Business Law BINUS.
Saat ini Artificial Intelligence (AI) berkembang semakin pesat dan tanpa kita sadari media-media sosial seperti Facebook, Instagram, Tiktok dll, telah menggunakan AI untuk menganalisa data pribadi yang kita serahkan sebagai alat pembayaran untuk penggunaan cuma-cuma dari berbagai media tersebut. AI bisa menggantikan manusia di berbagai bidang. AI ada di belakang mobil swakemudi yang sedang dikembangkan beberapa perusahaan internasional terkemuka. Di dalam dunia perbankan, AI sudah dimanfaatkan untuk memonitor kemampuan finansial pelanggan pemegang kartu kredit. Di beberapa negara di Eropa pengambilan putusan mengenai kelayakan seseorang untuk mendapatkan jaminan sosial sudah didelegasikan kepada AI.
Dengan peran AI yang semakin besar ini, masalah yang kerap muncul adalah: siapa yang bertanggungjawab atas putusan yang diambil oleh AI itu? Apakah yang bertanggungjawab adalah programmer-nya? Pemilik dari AI? Korporasi di balik produk yang menggunakan AI itu? Apakah AI sendiri bisa dianggap sebagai subyek hukum? Siapa yang bertanggungjawab jika muncul kerugian yang timbul karena keputusan yang diambil oleh AI? Siapa yang bertanggunjawab jika putusan yang diambil oleh AI mengakibatkan terjadinya tindak pidana, misalnya tabrakan yang diakibatkan oleh mobil swakemudi? Apakah AI dapat menggantikan peran hakim? Pertanyaan-pertanyaan seperti itulah yang diangkat oleh Prof. Stefan Koos pada paparannya.
Prof. Stefan Koos memulai sesi perkuliahan dengan mengaitkan AI dengan etika. Beliau memberikan contoh dilema dasyat yang dihadapi Nabi Ibrahim pada waktu ia mendapatkan perintah dari Allah untuk mengorbankan anaknya Ismail. Bagi AI dilema seperti itu tidak pernah ada, karena AI tidak memiliki rasa mengenai apa itu pengorbanan atau apa yang dikorbankan. AI tidak memilik etika dan hanya membuat putusan berdasarkan program yang diinput. Sedangkan, dalam pekerjaan sehari-hari sebagai mahasiswa, karyawan, petugas, dosen, manager, CEO, wakil rakyat, Menteri, Presiden, kita pasti akan berhadapan dengan kondisi-kondisi yang dilematis. Di dalam situasi yang dilematis itulah sisi kemanusiaan kita tampil.
Mahasiswa hukum semester pertama belajar mengenai kaitan erat antara etika dan hukum, antara nilai-nilai tinggi dan norma positif. Dalam hal inilah, AI tidak memiliki kesadaran tentang hal-hal yang baik dan buruk tersebut. Tentu saja, programmer AI akan mempertimbangkan norma-norma hukum jika ia sedang mengembangkan program AI tertentu. Akan tetapi, seperti dalam hidup manusia, tak bisa dihindari bahwa pada suata saat AI akan terjebak dalam sebuah situasi dilematis. Prof. Stefan Koos memberikan contoh dari mobil swakemudi: jika tiba-tiba ada anak yang menyebrang jalan yang dilewati mobil swakemudi dan anak itu hanya bisa diselamatkan dengan menabrakkan mobilnya ke tembok, apakah penumpang mobil atau anaknya yang akan diselamatkan? Jika AI dari mobil tersebut diprogram untuk tidak pernah menabrak ke tembok dan anak itu meninggal, siapa yang akan bertanggungjawab atas meninggalnya anak itu? Bisa saja, pemilik mobil swakemudi tersebut sebenarnya memiliki kecenderungan untuk menabrak tembok dan menyelamatkan anak tersebut, tetapi mobil swakemudi tidak memberikan pilihan untuk mengintervensi. Apakah dalam skenario tersebut pengemudi yang bersalah, perusahaan mobilnya, atau mungkin programmer AI yang justru bersalah?
Putusan hakim di dalam kasus-kasus seperti ini akan mempunyai nilai ekonomis yang luar biasa untuk produk AI tersebut: jika pengemudinya dinyatakan bersalah, maka ada kemungkinan mobil swakemudi akan ditinggalkan oleh masyarakat, karena risiko yang harus ditanggung pemilik mobil swakemudi menjadi terlalu besar. Jika perusahaan mobil yang dinyatakan bersalah, perusahaan mobil swakemudi berpotensi harus menghadapi gugatan ganti rugi setiap kali terjadinya kecelakaan. Jika programmer yang dianggap bersalah, apakah masih akan ada AI developer yang mau mengembangkan AI untuk mobil swakemudi?
Pertanyaan berikut yang diajukan Prof Koos adalah: Apakah AI, walaupun tidak memiliki kesadaran diri, dapat melakukan tindakan hukum? Ternyata, jawabannya adalah: iya, bisa. AI telah digunakan untuk membuat smart contracts antara dua pihak. Artinya, kedua belah pihak diwakili oleh AI non-subyek hukum. Apakah kontrak seperti itu punya kekuatan hukum? Pertanyaan ini harus dijawab oleh hakim, karena peraturan perundang-undangan di banyak negara belum mengantisipasi transaksi yang tidak melibatkan manusia.
Seperti yang tadi sudah disebutkan di atas, di beberapa negara Eropa AI sudah digunakan untuk mengambil keputusan mengenai kelayakan seseorang untuk mendapatkan jaminan sosial. Pertanyaan yang muncul adalah apakah AI juga bisa menggantikan hakim? Prof. Stefan Koos menyebutkan sisi positifnya terlebih dulu. Pertama, AI dapat menghilangkan human error. Dua, AI pasti akan memperlakukan setiap kasus yang serupa dengan sama sehingga kepastian hukum dapat terjaga. Tiga, semua orang akan diperlakukan sama di hadapan hukum oleh AI: tidak ada pengaruh korupsi, nepotisme, kelas, atau prasangka terhadap kaum minoritas, perempuan dan LGBT.
Akan tetapi, AI sebagai hakim bukannya tanpa sisi negatif. Pertama, AI tidak memiliki kemampuan untuk membuat pengecualian dalam situasi yang mendesak. Dua, AI akan memutuskan perkara berbasiskan kelengkapan berkas dan tidak memiliki kemampuan untuk menilai kualitas dari bukti tersebut. Kemampuan AI untuk membedakan antara bukti yang meyakinkan dan bukti pendukung kurang. Tiga, praktek hukum oleh AI akan menjadi lebih birokratis daripada kasus yang ditangani manusia: jika ada kekurangan dokumen, walaupun kekurangan itu dapat dipertanggunjawabkan, perkaranya langsung ditolak. Empat, jika AI digunakan dalam perkara pidana, letaknya reasonable doubt menjadi bermasalah. Kapan tercapainya reasonable doubt, jika ada 1% doubt, 5% doubt, atau 10% doubt mengenai bukti yang disampaikan? Mengingat AI dapat memiliki kesulitan untuk membedakan mana bukti yang paling meyakinkan. Sisi negatif yang kelima, adalah yang paling mendasar. Apakah hak setiap orang untuk didengar pendapatnya bisa terpenuhi oleh AI yang dapat merekam pernyataan kita, tetapi tidak memiliki kemampuan untuk mendengar, berempati, dan memperlihatkan sisi kemanusiaannya?
Kuliah Prof. Stefan Koos menunjukkan masih panjangnya permasalahan hukum dari penggunaan artificial intelligence. Mau tidak mau hukum harus ikut berkembang. Jika belum ada peraturan khusus, maka masalah hukumnya harus diselesaikan oleh hakim yang tidak dapat menolak perkara atas dasar iura novit curia. Prof. Stefan Koos memberi pleidoi yang kuat untuk mempertahankan kemanusiaan di dalam praktek berhukum. Hanya manusialah yang memiliki nilai kemanusiaan itu. Jangan sampai AI memutuskan tali ikat antara etika dan hukum. (***)
Comments :