Potensi AI diguna penjenayah siber untuk menyerang dan pentingnya membangunkan pertahanan keselamatan siber yang proaktif | DagangNews Skip to main content

Potensi AI diguna penjenayah siber untuk menyerang dan pentingnya membangunkan pertahanan keselamatan siber yang proaktif

Oleh Kaspersky

PERCAMBAHAN pesat sistem Kecerdasan Buatan atau AI termaju dalam domain awam telah menyaksikan penggunaan meluas oleh individu dan perniagaan.

 

Sistem ini sangat boleh disesuaikan dengan pelbagai tugas, termasuk penjanaan kandungan dan penciptaan kod melalui gesaan bahasa semula jadi.

 

Walau bagaimanapun, kebolehcapaian ini telah membuka pintu kepada penjenayah untuk menggunakan AI sebagai senjata dan melakukan serangan yang canggih.

 

Musuh boleh memanfaatkan AI untuk mengautomasikan serangan, mempercepatkan rutin dan melaksanakan operasi yang lebih kompleks untuk mencapai matlamat mereka.

 

AI sebagai Alat Berkuasa

Kami telah melihat beberapa cara penjenayah siber menggunakan AI:

1. ChatGPT boleh digunakan untuk menulis perisian hasad (malicious) dan mengautomasikan serangan terhadap berbilang pengguna.

2. Program AI boleh log masuk telefon pintar pengguna dengan menganalisis data penderia pecutan, berpotensi menangkap mesej, kata laluan dan kod bank.

3. Perisikan kawanan boleh mengendalikan botnet autonomi yang berkomunikasi antara satu sama lain untuk memulihkan rangkaian hasad selepas kerosakan.

 

Kaspersky baru-baru ini menjalankan satu lagi penyelidikan komprehensif mengenai penggunaan AI untuk pemecahan kata laluan. Kebanyakan kata laluan disimpan disulitkan dengan fungsi cincang kriptografi seperti MD5 dan SHA.

 

Walaupun mudah untuk menukar kata laluan teks kepada baris yang disulitkan, membalikkan proses adalah mencabar. Malangnya, kebocoran pangkalan data kata laluan berlaku dengan kerap, menjejaskan kedua-dua syarikat kecil dan pemimpin teknologi.

 

Pada Julai 2024, kompilasi kata laluan bocor terbesar setakat ini diterbitkan dalam talian, mengandungi kira-kira 10 bilion baris dengan 8.2 bilion kata laluan unik.

 

Alexey Antonov, Ketua Saintis Data di Kaspersky, berkata, "Kami menganalisis kebocoran data besar-besaran ini dan mendapati bahawa 32% kata laluan pengguna tidak cukup kuat dan boleh dibalikkan daripada bentuk cincang yang disulitkan menggunakan brute-force algorithm mudah dan GPU moden 4090 dalam masa kurang 60 minit."

 

 

Alexey Antonov
                   Alexey Antonov

 

 

"Kami juga melatih model bahasa pada pangkalan data kata laluan dan cuba menyemak kata laluan dengan kaedah AI yang diperoleh. Kami mendapati 78% kata laluan boleh diterobos dengan cara ini, iaitu kira-kira tiga kali lebih pantas daripada menggunakan brute-force algorithm. Hanya 7% daripada kata laluan itu cukup kuat untuk menahan serangan jangka panjang," kata Antonov.

 

Kejuruteraan Sosial dengan AI

AI juga boleh digunakan untuk kejuruteraan sosial untuk menghasilkan kandungan yang kelihatan munasabah, termasuk teks, imej, audio dan video.

 

Penjenayah siber boleh menggunakan model bahasa yang besar seperti ChatGPT-4o untuk menjana teks penipuan, seperti mesej pancingan data yang canggih.

 

Pancingan data yang dijana AI boleh mengatasi halangan bahasa dan mencipta e-mel yang diperibadikan berdasarkan maklumat media sosial pengguna. Ia juga boleh meniru gaya penulisan individu tertentu, menjadikan serangan pancingan data berpotensi lebih sukar untuk dikesan.

 

Deepfakes memberikan satu lagi cabaran keselamatan siber. Apa yang dahulunya hanya penyelidikan saintifik kini telah menjadi isu yang meluas.

 

Penjenayah telah menipu ramai orang dengan penipuan penyamaran selebriti, yang membawa kepada kerugian kewangan yang ketara. Deepfakes juga digunakan untuk mencuri akaun pengguna dan menghantar permintaan wang audio menggunakan suara pemilik akaun kepada rakan dan saudara mara.

 

Penipuan percintaan yang canggih melibatkan penjenayah mencipta persona palsu dan berkomunikasi dengan mangsa di dating sites (laman temu janji).

 

Salah satu serangan yang paling terperinci berlaku pada bulan Februari di Hong Kong, di mana penipu mensimulasikan panggilan persidangan video menggunakan deepfakes untuk menyamar sebagai eksekutif syarikat, meyakinkan seorang pekerja kewangan untuk memindahkan kira-kira $25 juta.

 

AI mudah diserang

Selain menggunakan AI untuk tujuan berbahaya, musuh juga boleh menyerang algoritma AI sendiri. Serangan ini termasuk:

1. Serangan suntikan segera pada model bahasa besar, di mana penyerang membuat permintaan yang memintas sekatan segera sebelumnya.

2. Serangan musuh pada algoritma pembelajaran mesin, di mana maklumat tersembunyi dalam imej atau audio boleh mengelirukan AI dan memaksa keputusan yang salah.

 

Memandangkan AI menjadi lebih bersepadu ke dalam kehidupan kita melalui produk seperti Apple Intelligence, Google Gemini dan Microsoft Copilot, menangani kelemahan AI menjadi penting.

 

Penggunaan AI oleh Kaspersky

Kaspersky telah menggunakan teknologi AI untuk melindungi pelanggan selama bertahun-tahun. Kami menggunakan pelbagai model AI untuk mengesan ancaman dan terus menyelidik kelemahan AI untuk menjadikan teknologi kami lebih tahan.

 

Kami juga secara aktif mengkaji teknik berbahaya yang berbeza untuk memberikan perlindungan yang boleh dipercayai terhadap AI yang menyinggung perasaan. - DagangNews.com