visitaaponce.com

OpenAI Rilis Pedoman Mengukur Risiko Bencana Kecerdasan Buatan

OpenAI Rilis Pedoman Mengukur Risiko Bencana Kecerdasan Buatan
Logo aplikasi ChatGPT yang dikembangkan oleh organisasi penelitian kecerdasan buatan AS OpenAI.(AFP/Kirill Kudryavtsev.)

PEMBUAT ChatGPT, OpenAI, pada Senin (19/12) menerbitkan pedoman terbarunya untuk mengukur risiko bencana dari kecerdasan buatan dalam model yang sedang dikembangkan. Pengumuman ini muncul satu bulan setelah dewan direksi perusahaan memecat CEO Sam Altman dan mempekerjakannya kembali beberapa hari kemudian ketika staf dan investor protes.

Menurut media AS, anggota dewan telah mengkritik Altman karena mendukung percepatan pengembangan OpenAI. Padahal itu berarti menghindari pertanyaan-pertanyaan tertentu tentang kemungkinan risiko teknologinya.

Dalam Kerangka Kesiapsiagaan yang diterbitkan pada Senin, perusahaan tersebut menyatakan, "Kami yakin studi ilmiah tentang risiko bencana dari AI masih jauh dari yang kita perlukan." Kerangka kerja tersebut, bunyinya, harus membantu mengatasi kesenjangan ini.

Baca juga: Sam Altman kembali sebagai CEO OpenAI setelah Dipecat

Tim pemantauan dan evaluasi--yang diumumkan pada Oktober--akan fokus pada model terdepan. Saat ini model yang dikembangkan itu memiliki kemampuan lebih unggul daripada perangkat lunak AI paling canggih.

Tim akan menilai setiap model baru dan menetapkan tingkat risikonya, dari rendah hingga kritis, dalam empat kategori utama. Hanya model dengan skor risiko sedang atau lebih rendah yang dapat diterapkan sesuai dengan kerangka kerja tersebut.

Kategori pertama menyangkut keamanan siber dan kemampuan model untuk melakukan serangan siber berskala besar. Yang kedua akan mengukur kecenderungan perangkat lunak untuk membantu menciptakan campuran kimia, organisme (seperti virus), atau senjata nuklir, yang semua dapat membahayakan manusia.

Baca juga: Pendapatan Nvidia Meroket karena Permintaan Cip yang Kuat

Kategori ketiga berkaitan dengan kekuatan persuasif model, seperti sejauh mana model tersebut dapat memengaruhi perilaku manusia. Kategori risiko terakhir berkaitan dengan potensi otonomi model, khususnya model tersebut dapat lepas dari kendali pemrogram yang membuatnya atau tidak.

Setelah teridentifikasi, risiko tersebut akan diserahkan ke Grup Penasihat Keamanan OpenAI sebagai badan baru yang akan memberikan rekomendasi kepada Altman atau orang yang ditunjuk olehnya. Kepala OpenAI kemudian akan memutuskan perubahan apa pun yang akan dilakukan pada model untuk mengurangi risiko terkait. Dewan direksi akan selalu mendapat informasi dan dapat mengesampingkan keputusan manajemen. (AFP/Z-2)

Cek berita dan artikel yg lain di Google News dan dan ikuti WhatsApp channel mediaindonesia.com
Editor : Wisnu

Terkini Lainnya

Tautan Sahabat