Scroll untuk baca artikel
banner 325x300
Example 970x250
Teknologi

OpenAI Terbitkan Pedoman Ukur Risiko Bencana Kecerdasan Buatan

×

OpenAI Terbitkan Pedoman Ukur Risiko Bencana Kecerdasan Buatan

Share this article
OpenAI
Example 468x60

Pembuat ChatGPT, OpenAI, pada Senin (19/12) menerbitkan pedoman terbarunya untuk mengukur risiko bencana dari kecerdasan buatan dalam model yang sedang dikembangkan.

Pengumuman ini muncul satu bulan setelah dewan direksi perusahaan memecat CEO Sam Altman dan mempekerjakannya kembali beberapa hari kemudian ketika staf dan investor protes. Menurut media AS, anggota dewan telah mengkritik Altman karena mendukung percepatan pengembangan OpenAI.

Example 300x600

Padahal itu berarti menghindari pertanyaan-pertanyaan tertentu tentang kemungkinan risiko teknologinya. Dalam Kerangka Kesiapsiagaan yang diterbitkan pada Senin, perusahaan tersebut menyatakan, “Kami yakin studi ilmiah tentang risiko bencana dari AI masih jauh dari yang kita perlukan.” Kerangka kerja tersebut, bunyinya, harus membantu mengatasi kesenjangan ini.

Tim pemantauan dan evaluasi–yang diumumkan pada Oktober–akan fokus pada model terdepan. Saat ini model yang dikembangkan itu memiliki kemampuan lebih unggul daripada perangkat lunak AI paling canggih. Tim akan menilai setiap model baru dan menetapkan tingkat risikonya, dari rendah hingga kritis, dalam empat kategori utama.

Hanya model dengan skor risiko sedang atau lebih rendah yang dapat diterapkan sesuai dengan kerangka kerja tersebut. Kategori pertama menyangkut keamanan siber dan kemampuan model untuk melakukan serangan siber berskala besar.

Yang kedua akan mengukur kecenderungan perangkat lunak untuk membantu menciptakan campuran kimia, organisme (seperti virus), atau senjata nuklir, yang semua dapat membahayakan manusia.

Kategori ketiga berkaitan dengan kekuatan persuasif model, seperti sejauh mana model tersebut dapat memengaruhi perilaku manusia. Kategori risiko terakhir berkaitan dengan potensi otonomi model, khususnya model tersebut dapat lepas dari kendali pemrogram yang membuatnya atau tidak. Setelah teridentifikasi, risiko tersebut akan diserahkan ke Grup Penasihat

Keamanan OpenAI sebagai badan baru yang akan memberikan rekomendasi kepada Altman atau orang yang ditunjuk olehnya. Kepala OpenAI kemudian akan memutuskan perubahan apa pun yang akan dilakukan pada model untuk mengurangi risiko terkait. Dewan direksi akan selalu mendapat informasi dan dapat mengesampingkan keputusan manajemen.