Penggunaan ChatGPT oleh Pekerja Samsung Mengakibatkan Bocornya Data Rahasia

Untitled-design-3 (1).png

Divisi semikonduktor Samsung mengandalkan ChatGPT untuk membantu memecahkan masalah dalam kode sumber mereka. Namun, saat menggunakan chatbot AI tersebut, mereka secara tidak sengaja mengungkapkan informasi rahasia seperti kode sumber untuk program baru dan catatan rapat internal tentang perangkat keras mereka. Sayangnya, ini bukan kejadian terisolasi, karena tiga insiden dilaporkan dalam waktu satu bulan.

Untuk menghindari pelanggaran serupa di masa depan, Samsung kini sedang bekerja untuk mengembangkan alat AI mereka sendiri yang mirip dengan ChatGPT yang eksklusif untuk digunakan oleh karyawan internal. Hal ini akan memungkinkan pekerja fabrikasi mereka untuk mendapatkan bantuan dengan cepat sambil menjaga keamanan informasi sensitif perusahaan. Namun, alat baru ini hanya akan memproses permintaan yang berukuran 1024 byte atau kurang.

Permasalahan terjadi karena ChatGPT dikelola oleh perusahaan pihak ketiga yang menggunakan server eksternal. Oleh karena itu, ketika Samsung memasukkan kode, rangkaian pengujian, dan konten rapat internal ke dalam program ini, data bocor. Samsung segera memberitahu pimpinan dan karyawan mereka tentang risiko informasi rahasia yang terancam. Hingga 11 Maret, Samsung belum mengizinkan karyawan mereka menggunakan chatbot.

Samsung bukan satu-satunya perusahaan yang menghadapi masalah ini. Banyak perusahaan yang membatasi penggunaan ChatGPT sampai mereka menetapkan kebijakan yang jelas mengenai penggunaan AI generatif. Meskipun ChatGPT menyediakan opsi untuk tidak mengumpulkan data pengguna, penting untuk dicatat bahwa informasi yang diberikan ke layanan ini masih dapat diakses oleh pengembangnya.

Apa itu ChatGPT dan bagaimana cara kerjanya?

ChatGPT adalah aplikasi AI yang dikembangkan oleh OpenAI yang menggunakan pembelajaran mendalam untuk menghasilkan teks yang mirip dengan manusia sebagai respons terhadap permintaan pengguna. Ia dapat menghasilkan teks dalam berbagai gaya dan untuk tujuan yang beragam, termasuk menulis salinan, menjawab pertanyaan, melakukan draft email, mengadakan percakapan, menerjemahkan bahasa alami ke kode, dan menjelaskan kode dalam berbagai bahasa pemrograman.

ChatGPT bekerja dengan memprediksi kata berikutnya dalam teks yang diberikan menggunakan pola yang telah dipelajarinya dari sejumlah besar data selama proses pelatihannya. Dengan menganalisis konteks dari petunjuk dan pembelajarannya di masa lalu, ChatGPT menghasilkan respons yang diharapkan untuk alami dan kohesif sebisa mungkin.

Apa langkah-langkah yang telah diambil oleh Samsung untuk mencegah kebocoran di masa depan?

Setelah bocornya data yang disebabkan oleh ChatGPT, Samsung telah mengambil beberapa langkah untuk mencegah kejadian serupa terjadi lagi. Pertama, perusahaan telah memberi tahu karyawannya untuk berhati-hati saat berbagi data dengan ChatGPT. Mereka juga menerapkan batasan panjang pertanyaan yang dikirim ke layanan tersebut, dengan membatasi hingga 1024 byte.

Selain itu, Samsung saat ini sedang mengembangkan alat AI serupa dengan ChatGPT, tetapi eksklusif untuk penggunaan internal karyawan. Hal ini akan memastikan pekerja pabrik menerima bantuan yang cepat sambil menjaga informasi rahasia perusahaan. Sampai pengembangan alat ini selesai, Samsung telah memperingatkan karyawan-karyawannya tentang risiko potensial yang terkait dengan penggunaan ChatGPT. Mereka juga telah menyoroti bahwa data yang dimasukkan ke dalam ChatGPT dikirim dan disimpan di server eksternal, sehingga tidak mungkin bagi perusahaan untuk mengontrol data setelah diserahkan.

Apa konsekuensinya bagi karyawan yang bocorkan data rahasia?

Konsekuensi bagi karyawan Samsung yang bocor data rahasia ke ChatGPT belum secara eksplisit dinyatakan dalam informasi yang tersedia. Namun, Samsung Electronics sedang mengambil langkah-langkah untuk mencegah kebocoran informasi sensitif melalui ChatGPT, termasuk memberlakukan batasan 1024 byte untuk ukuran pertanyaan yang diajukan. Perusahaan juga telah memberi peringatan kepada karyawannya tentang potensi risiko penggunaan ChatGPT.

Selain itu, Samsung Semiconductor sedang mengembangkan alat AI internalnya sendiri untuk digunakan oleh karyawan, yang akan dibatasi untuk memproses prompt di bawah 1024 byte. Tindakan-tindakan ini menunjukkan bahwa Samsung serius dalam melindungi informasi rahasia dan sedang menerapkan langkah-langkah untuk mengurangi risiko yang terkait dengan penggunaan ChatGPT.

Jenis informasi rahasia apa yang bocor?

Berapa kali karyawan Samsung membocorkan data rahasia ke ChatGPT?

Menurut hasil pencarian, karyawan-karyawan Samsung bocorkan informasi rahasia perusahaan kepada ChatGPT setidaknya dalam tiga kesempatan.

Buka kekuatan AI dengan HIX.AI!