Kritik terhadap rilis ChatGPT ke publik pada bulan November 2022 dan rilis berikutnya oleh beberapa pesaing berpendapat bahwa keamanan sebagian besar hanya sekedar renungan
Euronews – Fusilatnews – Microsoft mengatakan pada hari Rabu bahwa musuh Amerika, terutama Iran dan Korea Utara dan pada tingkat yang lebih rendah Rusia dan Tiongkok, mulai menggunakan kecerdasan buatan (AI) generatif untuk melakukan atau mengatur operasi siber yang ofensif.
Raksasa teknologi tersebut mengatakan telah mendeteksi dan mengganggu, bekerja sama dengan mitra bisnis OpenAI, ancaman yang menggunakan atau mencoba mengeksploitasi teknologi AI yang mereka kembangkan.
Dalam postingan blognya, perusahaan di Redmond, Washington, mengatakan bahwa teknik ini masih “tahap awal” dan tidak “terlalu baru atau unik” namun penting untuk mengeksposnya secara publik karena pesaing AS memanfaatkan model bahasa besar untuk memperluas kemampuan mereka. melanggar jaringan dan melakukan operasi pengaruh.
Regulator Eropa menempatkan taruhan Microsoft sebesar $13 miliar pada OpenAI di bawah pengawasan yang lebih cermat
Perusahaan keamanan siber telah lama menggunakan pembelajaran mesin dalam bidang pertahanan, terutama untuk mendeteksi perilaku anomali dalam jaringan. Namun para penjahat dan peretas ofensif juga menggunakannya, dan pengenalan model bahasa besar yang dipimpin oleh ChatGPT OpenAI meningkatkan permainan kucing-dan-tikus.
Microsoft telah menginvestasikan miliaran dolar pada OpenAI, dan pengumuman pada hari Rabu ini bertepatan dengan peluncuran laporan yang menyatakan bahwa AI generatif diperkirakan akan meningkatkan rekayasa sosial yang berbahaya, yang mengarah pada deepfake dan kloning suara yang lebih canggih, sebuah ancaman terhadap demokrasi di tahun dimana lebih dari 50 negara akan menyelenggarakan pemilu, memperbesar disinformasi dan sudah terjadi,
Berikut adalah beberapa contoh yang disediakan Microsoft. Dalam setiap kasus, dikatakan bahwa semua akun AI generatif dan aset dari kelompok yang disebutkan di atas dinonaktifkan:
Kelompok spionase dunia maya Korea Utara yang dikenal sebagai Kimsuky telah menggunakan model tersebut untuk meneliti lembaga think tank asing yang mempelajari negara tersebut dan untuk menghasilkan konten yang kemungkinan besar akan digunakan dalam kampanye peretasan spear-phishing.
Garda Revolusi Iran telah menggunakan model bahasa besar untuk membantu dalam rekayasa sosial, dalam memecahkan masalah kesalahan perangkat lunak, dan bahkan dalam mempelajari bagaimana penyusup dapat menghindari deteksi dalam jaringan yang disusupi.
Hal ini termasuk membuat email phishing “termasuk email yang berpura-pura berasal dari lembaga pembangunan internasional dan email lainnya yang berupaya memikat feminis terkemuka ke situs web feminisme yang dibuat oleh penyerang”.
AI membantu mempercepat dan meningkatkan produksi email. Unit intelijen militer GRU Rusia yang dikenal sebagai Fancy Bear telah menggunakan model tersebut untuk meneliti teknologi satelit dan radar yang mungkin terkait dengan perang di Ukraina.
Kelompok spionase dunia maya China yang dikenal sebagai Aquatic Panda juga menargetkan berbagai industri, pendidikan tinggi dan pemerintahan dari Perancis hingga Malaysia, Kelompok ini berinteraksi dengan model tersebut “dengan cara yang menunjukkan eksplorasi terbatas tentang bagaimana LLM dapat meningkatkan operasi teknis mereka”.
Kelompok China Maverick Panda, yang menargetkan kontraktor pertahanan AS di antara mereka sektor-sektor lain selama lebih dari satu dekade, berinteraksi dengan model-model berskala besar yang menunjukkan bahwa mereka sedang mengevaluasi keefektifan model-model tersebut sebagai sumber informasi
“mengenai topik-topik yang berpotensi sensitif, individu-individu terkenal, geopolitik regional, pengaruh AS, dan urusan dalam negeri”.
CEO OpenAI memperingatkan bahwa ‘ketidakselarasan masyarakat’ dapat membuat kecerdasan buatan menjadi berbahaya
Kotak Pandora dibuka’
Dalam blog terpisah yang diterbitkan pada hari Rabu, OpenAI mengatakan bahwa model chatbot GPT-4 saat ini menawarkan “hanya kemampuan tambahan yang terbatas untuk tugas-tugas keamanan siber berbahaya di luar apa yang sudah dapat dicapai dengan alat yang tersedia untuk umum dan tidak didukung oleh AI.”
Para peneliti keamanan siber memperkirakan hal tersebut akan berubah.
April tahun lalu, direktur Badan Keamanan Siber dan Infrastruktur AS, Jen Easterly, mengatakan kepada Kongres bahwa “ada dua ancaman dan tantangan yang menentukan zaman. Yang pertama adalah China, dan yang lainnya adalah kecerdasan buatan”.
Easterly mengatakan pada saat itu bahwa AS perlu memastikan AI dibangun dengan mempertimbangkan keamanan.
Kritik terhadap rilis publik ChatGPT pada bulan November 2022 – dan rilis berikutnya oleh pesaing termasuk Google dan Meta, berpendapat bahwa rilis tersebut dilakukan secara terburu-buru dan tidak bertanggung jawab, mengingat keamanan sebagian besar merupakan renungan dalam perkembangannya.
‘Tundalah untuk memiliki anak jika Anda belum menjadi orang tua,’ pakar AI, Mo Gawdat memperingatkan
“Tentu saja pelaku kejahatan menggunakan model bahasa besar – keputusan itu dibuat ketika Kotak Pandora dibuka,” kata Amit Yoran, CEO perusahaan keamanan siber Tenable.
Beberapa profesional keamanan siber mengeluhkan tentang pembuatan dan penjualan alat oleh Microsoft untuk mengatasi kerentanan dalam model bahasa besar, padahal Microsoft mungkin lebih bertanggung jawab untuk fokus menjadikannya lebih aman.
“Mengapa tidak membuat model landasan LLM yang lebih aman daripada menjual alat defensif untuk masalah yang mereka bantu ciptakan?” tanya Gary McGraw, seorang veteran keamanan komputer dan salah satu pendiri Berryville Institute of Machine Learning.
Profesor NYU dan mantan Kepala Keamanan AT&T Edward Amoroso mengatakan bahwa meskipun
penggunaan AI dan model bahasa besar mungkin tidak menimbulkan ancaman langsung, mereka “pada akhirnya akan menjadi salah satu senjata paling ampuh dalam setiap pelanggaran militer suatu negara
Sumber : Euronews

























