Jakarta, PCplus – The Institute of Management Development (IMD) dan tim ahli dari TONOMUS Global Center for Digital and AI Transformation berhasil menciptakan “AI Safety Clock” (Jam Keamanan AI). Jam ini berfungsi sebagai indikator tingkat risiko perkembangan Kecerdasan Buatan Umum (Artificial General Intelligence/AGI) yang bisa menjadi tidak terkendali. AGI adalah sistem AI yang dapat beroperasi secara mandiri tanpa bantuan dan pengawasan manusia, sehingga berpotensi membahayakan.
Baca Juga: Ini Daftar Kota Cerdas Dunia 2024, Ada Indonesia?
Perkembangan resiko AI
Seberapa berbahaya ancaman AI bagi umat manusia saat ini? Menurut Michael Wade, Direktur Global Center for Digital Business Transformation IMD sekaligus Direktur TONOMUS Global Center for Digital and AI Transformation, terdapat empat fase risiko AGI yang tidak terkendali. Mereka adalah risiko rendah, sedang, tinggi, dan kritis. Saat ini, dunia mulai memasuki fase risiko tinggi.
“Perkembangan AGI saat ini sedang beralih dari fase risiko sedang ke risiko tinggi. Ketika perkembangan AGI menjadi kritis dan tidak terkendali, hal itu akan menjadi musibah bagi umat manusia. Risikonya serius, tetapi belum terlambat untuk bertindak,” jelas Wade.
“Regulasi yang efektif dan terpadu dapat membatasi risiko terburuk dari perkembangan teknologi ini tanpa mengurangi manfaatnya. Oleh karena itu, kami menyerukan kepada para pelaku internasional dan perusahaan teknologi besar untuk melakukan pencegahan demi kebaikan kita semua,” tambahnya.
Jika perkembangan AGI tidak lagi bisa dikendalikan manusia, hal ini bisa menjadi musibah bagi dunia. Contohnya:
- AI mengambil alih dan mengendalikan persenjataan konvensional. Mulai dari senjata nuklir, biologi, hingga kimia. China saat ini sedang mempercepat komersialisasi robot humanoid. Termasuk penerapannya di infrastruktur sensitif seperti jaringan listrik dan pembangkit listrik tenaga nuklir.
- AI digunakan untuk memanipulasi atau mengganggu pasar keuangan.
- AI digunakan untuk memanipulasi atau mengganggu infrastruktur penting. Contohnya energi, transportasi, komunikasi, dan air.
- Penggunaan AI untuk memanipulasi atau mengganggu sistem politik, jaringan sosial, serta ekosistem biologis dan lingkungan.
- Ancaman langsung AI terhadap nyawa manusia.
Resiko AI Makin Tinggi
Ada dua perkembangan AI yang mendorong peningkatan risiko dari sedang menjadi tinggi: AI multimodal dan AI agen (agentic AI). AI multimodal dapat memproses dan mengintegrasikan beberapa jenis input (seperti teks, gambar, audio). Ini ia lakukan untuk menyelesaikan tugas yang lebih kompleks. Contohnya adalah GPT-4o, Gemini Ultra, dan Pixtral 12B.
Sementara itu, AI agen mengacu pada sistem AI yang mampu merencanakan, bertindak, dan membuat keputusan secara otonom. Saat ini, AI agen tengah berkembang pesat. Perkembangan AI agen memang mendorong kemajuan AGI, namun berpotensi menjadi bencana ketika sistem ini menjadi tidak terkendali setelah digabungkan dengan teknologi lain.
Contoh lainnya adalah perkembangan robot humanoid yang ditenagai oleh AI generatif. AI generatif digunakan agar robot humanoid ini bisa beroperasi dan mengambil keputusan secara mandiri. NVIDIA tengah bermitra dengan perusahaan robotika untuk mengembangkan model dasar untuk robot humanoid semacam ini.
Kemajuan teknologi ini memang menarik, namun bisa menjadi ancaman tersembunyi bagi manusia. Pengawasan yang cermat dan manajemen yang bertanggung jawab penting agar penerapan AI lebih aman dan tidak menjadi ‘senjata makan tuan’.
Regulasi menjadi sangat penting
Dalam sejarah, regulasi sering kali tertinggal dari perkembangan teknologi dan inovasi. Saat ini, terdapat beberapa inisiatif seperti EU AI Act, SB 1047 di California, dan Framework Convention on AI dari Council of Europe yang bisa menjadi acuan aturan AI. Selain aturan dan kebijakan pemerintah, semua pemangku kepentingan, terutama perusahaan yang mengembangkan model AI seperti OpenAI, Meta, dan Alphabet, juga memainkan peran penting dalam mengurangi risiko AI.
Untuk praktik keselamatan AI, beberapa perusahaan teknologi pengembang AI telah mencoba menerapkan regulasi pengamanan. OpenAI telah menyediakan Preparedness Framework. Sementara Alphabet memiliki Google DeepMind Frontier Safety Framework dan Anthropic menyiapkan Responsible Scaling Policy (RSP). Berbagai kerangka kerja ini merupakan langkah penting dalam menjaga keselamatan AI. Tapi, masih diperlukan transparansi dan penegakan langkah praktis yang lebih baik.
AI Safety Clock ini dibuat untuk meningkatkan kesadaran dan diskusi konstruktif bagi publik, pembuat kebijakan, dan pemimpin bisnis tentang keamanan AI. Ia juga dibuat dengan menganalisis teknologi dan pengumuman dari lebih dari 3.500 perusahaan dan pemerintah di seluruh dunia.