Beranda POLITIK & PEMERINTAHAN Openai mungkin mengubah perlindungan AI jika saingan tidak bermain dengan aturan yang...

Openai mungkin mengubah perlindungan AI jika saingan tidak bermain dengan aturan yang sama

4
0
Openai mungkin mengubah perlindungan AI jika saingan tidak bermain dengan aturan yang sama


Openai tidak ingin perlindungan AI -nya menahannya jika saingannya tidak bermain dengan aturan yang sama.

Di blog Selasa pos Memperbarui “kerangka kesiapannya,” perusahaan mengatakan mungkin mengubah persyaratan keselamatannya jika “pengembang AI perbatasan lain merilis sistem berisiko tinggi tanpa perlindungan yang sebanding.”

Perusahaan mengatakan hanya akan melakukannya setelah mengkonfirmasi lanskap risiko telah berubah, secara terbuka mengakui keputusan itu, dan memastikan itu tidak akan secara bermakna meningkatkan kemungkinan kerusakan parah.

Pergeseran datang sebagai Openai telah mendapat kecaman karena mengambil pendekatan yang berbeda untuk keselamatan dalam beberapa bulan terakhir.

Pada hari Senin, meluncurkan yang baru GPT-4.1 Keluarga Model Tanpa Model atau Kartu Sistem – Dokumen Keselamatan yang biasanya menyertai rilis baru dari perusahaan. Juru bicara openai diberi tahu TechCrunch model itu bukan “perbatasan,” jadi sebuah laporan tidak diperlukan.

Pada bulan Februari, Openai meluncurkannya Penelitian yang mendalam Alat berminggu -minggu sebelum menerbitkan evaluasi keamanan kartu sistemnya.

Contoh -contoh ini telah menambah pengawasan yang berkelanjutan terhadap komitmen Openai terhadap keselamatan dan transparansi dalam rilis model AI -nya.

“Openai diam -diam mengurangi komitmen keselamatannya,” Steven Adler, mantan peneliti keselamatan Openai, Diposting di x Rabu Menanggapi kerangka kerja yang diperbarui.

Adler mengatakan bahwa kerangka kerja Openai sebelumnya, yang diterbitkan pada bulan Desember 2023, termasuk persyaratan yang jelas untuk model yang disesuaikan dengan tes keselamatan. Dia mengatakan pembaruan terbaru hanya membutuhkan pengujian jika model sedang dirilis dengan bobot terbuka, yaitu ketika parameter model diumumkan kepada publik.

“Saya ingin Openai lebih jelas tentang telah mundur dari komitmen sebelumnya,” tambahnya.

Openai tidak segera menanggapi permintaan komentar orang dalam bisnis.

Mantan staf Openai mengunggulkan gugatan Musk

Adler bukan satu -satunya mantan karyawan yang berbicara tentang masalah keamanan di Openai.

Pekan lalu, 12 mantan karyawan Openai mengajukan mosi yang meminta hakim untuk membiarkan mereka mempertimbangkan Elon Musk gugatan terhadap perusahaan.

Dalam amicus yang diusulkan singkat Diajukan pada hari Jumat, mereka mengatakan bahwa konversi yang direncanakan Openai ke entitas nirlaba dapat memberi insentif kepada perusahaan untuk memotong sudut pada keselamatan dan memusatkan kekuatan di antara pemegang saham.

Kelompok ini termasuk mantan staf Openai yang bekerja keamananpenelitian, dan kebijakan.

Altman membela pendekatan Openai

Sam Altman, CEO Openai, membela pendekatan keselamatan perusahaan yang berkembang di hari Jumat wawancara di TED2025. Dia mengatakan kerangka kerja Openai menguraikan bagaimana mengevaluasi “momen bahaya” sebelum merilis model.

Altman juga membahas gagasan bahwa Openai bergerak terlalu cepat. Dia mengatakan bahwa perusahaan AI secara teratur menjeda atau menunda model rilis atas masalah keamanan, tetapi mengakui bahwa Openai baru -baru ini melonggarkan beberapa pembatasan pada perilaku model. “Kami telah memberi pengguna lebih banyak kebebasan tentang apa yang secara tradisional akan kami pikirkan sebagai bahaya bicara,” katanya.

Dia menjelaskan bahwa perubahan tersebut mencerminkan “sikap yang lebih permisif” yang dibentuk oleh umpan balik pengguna. “Orang -orang benar -benar tidak ingin model menyensor mereka dengan cara yang mereka pikir tidak masuk akal,” katanya.