RINGKASAN
- Anthropic secara tidak sengaja membocorkan kod sumber dalaman untuk alat pengekodan AI-nya, Claude Code
- Kebocoran itu mendedahkan kira-kira 1,900 fail dan 512,000 baris kod
- Satu hantaran di X yang berkongsi kod tersebut mendapat lebih 30 juta tontonan
- Anthropic menyatakan tiada data pelanggan atau kelayakan yang terdedah
- Ini adalah insiden data kedua bagi Anthropic dalam tempoh kurang seminggu
(SeaPRwire) – Anthropic mengesahkan pada hari Selasa bahawa ia secara tidak sengaja mengeluarkan sebahagian daripada kod sumber dalaman untuk Claude Code, pembantu pengekodan berkuasa AI-nya. Syarikat itu menyebutnya sebagai “isu pembungkusan keluaran yang disebabkan oleh kesilapan manusia, bukan pelanggaran keselamatan.”
Claude code source code has been leaked via a map file in their npm registry!
Code: https://t.co/jBiMoOzt8G
— Chaofan Shou (@Fried_rice) March 31, 2026
Kebocoran itu mendedahkan kira-kira 1,900 fail dan 512,000 baris kod, menurut penganalisis keselamatan siber. Claude Code berjalan secara langsung di dalam persekitaran pembangun dan mempunyai akses kepada maklumat sensitif, yang menjadikan pendedahan itu kebimbangan bagi pakar keselamatan.
Satu hantaran di X yang berkongsi pautan kepada kod yang bocor itu menjadi tular dengan pantas. Ia telah melepasi 30 juta tontonan selepas dikongsi pada awal pagi Selasa.
Pembangun mula meneliti kod tersebut untuk memahami bagaimana Claude Code berfungsi dan bagaimana Anthropic merancang untuk mengembangkannya lebih lanjut. Beberapa penyelidik keselamatan menyuarakan kebimbangan tentang apa yang boleh dilakukan oleh penyerang dengan maklumat tersebut.
Firma keselamatan siber AI Straiker memberi amaran dalam catatan blog bahawa penyerang kini boleh mengkaji bagaimana data mengalir melalui saluran paip dalaman Claude Code. Mereka menyatakan ia boleh membenarkan seseorang untuk mencipta muatan yang kekal merentasi sesi yang panjang, secara berkesan menanam pintu belakang.
Insiden Kedua dalam Seminggu
Ini bukan kejadian terpencil bagi Anthropic. Hanya beberapa hari sebelumnya, Fortune melaporkan bahawa syarikat itu secara tidak sengaja telah menjadikan ribuan fail boleh diakses secara umum.
Fail-fail tersebut termasuk draf catatan blog yang menerangkan model AI yang akan datang yang dikenali secara dalaman sebagai “Mythos” dan “Capybara.” Catatan itu dilaporkan menyatakan bahawa model tersebut menimbulkan risiko keselamatan siber.
Anthropic berkata ia sedang melancarkan langkah-langkah untuk mencegah insiden masa depan. Syarikat itu menyatakan dengan jelas bahawa tiada data pelanggan sensitif atau kelayakan terlibat dalam kedua-dua kes.
Claude Code Mengikut Angka
Anthropic mengeluarkan Claude Code kepada orang ramai pada Mei tahun lalu. Ia membantu pembangun perisian membina ciri, membaiki pepijat, dan mengautomasikan tugas.
Alat ini telah berkembang dengan pesat. Hasil pendapatan kadar lariannya telah mencapai lebih daripada $2.5 bilion setakat Februari.
Pertumbuhan itu telah mendorong pesaing untuk bertindak. OpenAI, Google, dan xAI semuanya telah melaburkan sumber untuk membina alat pengekodan mereka sendiri untuk bersaing dengan Claude Code.
Anthropic diasaskan pada tahun 2021 oleh bekas eksekutif dan penyelidik OpenAI. Ia paling dikenali dengan keluarga model AI Claude-nya.
Jurucakap syarikat itu berkata ia sedang mengambil langkah untuk memastikan kebocoran seperti ini tidak berlaku lagi.
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.

