OpenAI Rilis Pedoman Mengukur Risiko Bencana Kecerdasan Buatan
![OpenAI Rilis Pedoman Mengukur Risiko Bencana Kecerdasan Buatan](https://disk.mediaindonesia.com/thumbs/800x467/news/2023/12/e5f0fe14ee48c7019280a8ffba20860f.jpg)
PEMBUAT ChatGPT, OpenAI, pada Senin (19/12) menerbitkan pedoman terbarunya untuk mengukur risiko bencana dari kecerdasan buatan dalam model yang sedang dikembangkan. Pengumuman ini muncul satu bulan setelah dewan direksi perusahaan memecat CEO Sam Altman dan mempekerjakannya kembali beberapa hari kemudian ketika staf dan investor protes.
Menurut media AS, anggota dewan telah mengkritik Altman karena mendukung percepatan pengembangan OpenAI. Padahal itu berarti menghindari pertanyaan-pertanyaan tertentu tentang kemungkinan risiko teknologinya.
Dalam Kerangka Kesiapsiagaan yang diterbitkan pada Senin, perusahaan tersebut menyatakan, "Kami yakin studi ilmiah tentang risiko bencana dari AI masih jauh dari yang kita perlukan." Kerangka kerja tersebut, bunyinya, harus membantu mengatasi kesenjangan ini.
Baca juga: Sam Altman kembali sebagai CEO OpenAI setelah Dipecat
Tim pemantauan dan evaluasi--yang diumumkan pada Oktober--akan fokus pada model terdepan. Saat ini model yang dikembangkan itu memiliki kemampuan lebih unggul daripada perangkat lunak AI paling canggih.
Tim akan menilai setiap model baru dan menetapkan tingkat risikonya, dari rendah hingga kritis, dalam empat kategori utama. Hanya model dengan skor risiko sedang atau lebih rendah yang dapat diterapkan sesuai dengan kerangka kerja tersebut.
Kategori pertama menyangkut keamanan siber dan kemampuan model untuk melakukan serangan siber berskala besar. Yang kedua akan mengukur kecenderungan perangkat lunak untuk membantu menciptakan campuran kimia, organisme (seperti virus), atau senjata nuklir, yang semua dapat membahayakan manusia.
Baca juga: Pendapatan Nvidia Meroket karena Permintaan Cip yang Kuat
Kategori ketiga berkaitan dengan kekuatan persuasif model, seperti sejauh mana model tersebut dapat memengaruhi perilaku manusia. Kategori risiko terakhir berkaitan dengan potensi otonomi model, khususnya model tersebut dapat lepas dari kendali pemrogram yang membuatnya atau tidak.
Setelah teridentifikasi, risiko tersebut akan diserahkan ke Grup Penasihat Keamanan OpenAI sebagai badan baru yang akan memberikan rekomendasi kepada Altman atau orang yang ditunjuk olehnya. Kepala OpenAI kemudian akan memutuskan perubahan apa pun yang akan dilakukan pada model untuk mengurangi risiko terkait. Dewan direksi akan selalu mendapat informasi dan dapat mengesampingkan keputusan manajemen. (AFP/Z-2)
Terkini Lainnya
Departemen Kehakiman AS dan FTC Selidiki Microsoft, Nvidia, dan Open AI dalam Kasus Antitrust
Elon Musk Mencabut Gugatan Terhadap OpenAI dan Para Pendirinya
Elon Musk Ancam tidak Gunakan Perangkat Apple di Perusahaannya
Apple Gandeng OpenAI ChatGPT untuk Meningkatkan Siri dan Sistem Operasi
Scarlett Johansson Marah Voice Over ChatGPT Dibuat Mirip Suaranya
Scarlett Johansson Mengkritik OpenAI atas Penggunaan Suara Sintetis Mirip Miliknya
Jepang Umumkan Prinsip-prinsip Dasar Kecerdasan Buatan
Fitur Prediksi Kinerja Gunakan AI Perkirakan Dampak Iklan
AI Generatif Tingkatkan Penawaran Layanan dan Inovasi
Hong Kong Dukung Inovasi Web3 dan Kripto
Fokus pada Pengembangan Kecerdasan Buatan sebagai Bentuk Inovasi
Kinerja Sektor Publik Bakal Terdongkrak Jika Terapkan Teknologi AI
Umur di Tangan Tuhan, Bantuan Hidup Dasar Mesti Dilakukan
Sengkarut-marut Tata Kelola Pertanahan di IKN
Panggung Belakang Kebijakan Tapera
Pancasila, Perempuan, dan Planet
Eskalasi Harga Pangan Tengah Tahun
Iuran Tapera ibarat Masyarakat Berdiri di Air Sebatas Dagu
Polresta Malang Kota dan Kick Andy Foundation Serahkan 37 Kaki Palsu
Turnamen Golf Daikin Jadi Ajang Himpun Dukungan Pencegahan Anak Stunting
Kolaborasi RS Siloam, Telkomsel, dan BenihBaik Gelar Medical Check Up Gratis untuk Veteran
Ulang Tahun, D'Cost Donasi ke 17 Panti Asuhan Melalui BenihBaik.com
Informasi
Rubrikasi
Opini
Ekonomi
Humaniora
Olahraga
Weekend
Video
Sitemap