Jangan Sesekali Tanya Atau Beritahu Chatgpt 5 Perkara Ini
Jangan Sesekali Tanya Atau Beritahu ChatGPT 5 Perkara Ini
Tidak dinafikan, ChatGPT telah banyak mengubah cara kita bekerja dan menjalani kehidupan seharian.
Berdasarkan statistik terkini, lebih 100 juta pengguna di seluruh dunia menggunakan platform ini setiap hari, dengan lebih satu bilion pertanyaan diproses oleh sistemnya, lapor Forbes.
Namun di sebalik popularitinya, ChatGPT turut digelar sebagai ‘lubang hitam privasi’ berikutan kebimbangan terhadap cara data pengguna dikendalikan. Malah, platform ini pernah diharamkan sementara di Itali susulan isu berkenaan.
Menurut Forbes, pihak pembangunnya, OpenAI sendiri juga tidak menyembunyikan hakikat bahawa data yang dimasukkan ke dalam sistem mungkin tidak selamat.
Data ini bukan sahaja boleh digunakan untuk melatih model AI, tetapi juga disemak oleh manusia bagi memastikan pematuhan terhadap peraturan penggunaan.
Tambahan pula, sebarang data yang dihantar ke perkhidmatan berasaskan awan (cloud service) tidak semestinya benar-benar selamat. Ini kerana keselamatannya bergantung pada tahap perlindungan yang disediakan pihak pengendali perkhidmatan tersebut.
Oleh itu, jelas Forbes, apa-apa maklumat yang dimasukkan ke dalam sistem seperti ChatGPT sepatutnya dianggap sebagai maklumat awam.
Maka, berikut ialah lima perkara penting yang sama sekali tidak wajar didedahkan kepada mana-mana chatbot awam berasaskan awan seperti ChatGPT.
1. Permintaan menyalahi undang-undang atau tidak beretika
Kebanyakan chatbot AI mempunyai sistem kawalan yang direka untuk menghalang pengguna membuat permintaan yang tidak bermoral atau menyalahi undang-undang.
Jika anda bertanya tentang perkara seperti jenayah, penipuan atau cara memanipulasi orang lain, anda boleh dikenakan tindakan undang-undang.
Sebagai contoh, undang-undang AI di China melarang penggunaan AI untuk menggugat kestabilan negara. Di Kesatuan Eropah pula, Akta AI (EU AI Act) mewajibkan semua imej atau video “deepfake” dilabelkan dengan jelas.
Di United Kingdom, Akta Keselamatan Dalam Talian (Online Safety Act) menjadikan penyebaran imej berunsur ‘eksplisit’ yang dijana AI tanpa kebenaran sebagai satu kesalahan jenayah.
Oleh itu, elakkan daripada menggunakan ChatGPT untuk meminta maklumat atau bantuan dalam perkara yang melanggar undang-undang atau boleh membahayakan orang lain.
2. Maklumat log masuk & kata laluan
Kemunculan AI berautonomi (agentic AI) kini membolehkan chatbot mengakses perkhidmatan luar atau pihak ketiga.
Namun, memberikan maklumat log masuk seperti nama pengguna dan kata laluan kepada sistem awam sangat berisiko.
Ada kes di mana data peribadi pengguna bocor dan muncul dalam jawapan yang diberikan kepada orang lain. Situasi ini boleh menjejaskan privasi serta keselamatan pengguna.
Oleh itu, elakkan daripada berkongsi sebarang maklumat akaun atau log masuk dengan AI, kecuali anda benar-benar yakin sistem tersebut selamat dan terkawal.
3. Maklumat kewangan
Sama seperti maklumat log masuk, maklumat kewangan seperti nombor akaun bank, kad kredit atau butiran transaksi juga tidak sepatutnya dimasukkan ke dalam chatbot.
Ini kerana sistem seperti ChatGPT tidak mempunyai ciri keselamatan khas seperti penyulitan data (encryption) atau penghapusan automatik selepas data diproses. Perlu diingat, ia berbeza dengan laman e-dagang atau perbankan dalam talian yang lebih selamat.
Jika anda berkongsi maklumat kewangan di chatbot, anda berisiko menjadi mangsa penipuan kewangan, kecurian identiti, serangan phishing atau serangan perisian tebusan (ransomware).
4. Maklumat sulit & rahsia syarikat
Setiap individu bertanggungjawab menjaga kerahsiaan maklumat sulit, sama ada berkaitan pekerjaan, perniagaan atau pelanggan. Ini termasuk fail dalaman, minit mesyuarat serta rekod transaksi.
Kes Samsung pada tahun 2023, misalnya, menjadi contoh apabila pekerjanya didapati berkongsi maklumat dalaman syarikat dengan ChatGPT, lapor Forbes. Tindakan ini berpotensi melanggar perjanjian kerahsiaan (NDA).
Walaupun ChatGPT boleh membantu menganalisis data, memuat naik dokumen sulit tanpa kawalan keselamatan boleh menyebabkan kebocoran maklumat atau pelanggaran undang-undang perniagaan.
5. Maklumat perubatan & kesihatan
Ramai pengguna tergoda untuk bertanya kepada ChatGPT tentang penyakit atau rawatan kesihatan, namun ini perlu dilakukan dengan berhati-hati.
Versi terkini ChatGPT boleh ‘mengingati’ maklumat perbualan lepas dan menghubungkannya dengan sesi baharu untuk memahami konteks pengguna. Walau bagaimanapun, tiada jaminan bahawa maklumat ini akan kekal peribadi.
Oleh itu, sebarang data kesihatan atau rekod pesakit tidak wajar dikongsi. Ini terutama bagi institusi kesihatan yang boleh dikenakan denda besar sekiranya maklumat pesakit terdedah kepada umum.
BACA: Elak Ucap “Tolong” & “Terima Kasih” Kepada ChatGPT, Ini Sebabnya
Sumber: Forbes
The post Jangan Sesekali Tanya Atau Beritahu ChatGPT 5 Perkara Ini appeared first on Siakap Keli.
Artikel ini hanyalah simpanan cache dari url asal penulis yang berkebarangkalian sudah terlalu lama atau sudah dibuang :
https://siakapkeli.my/2025/10/28/jangan-sesekali-tanya-atau-beritahu-chatgpt-5-perkara-ini/