Uzmanlar, ChatGPT gibi yapay zeka sohbet robotlarıyla yapılan etkileşimlerde kişisel güvenliği tehlikeye atabilecek yedi kritik bilgi konusunda uyarıyor.
Yapay zekaya kimlik, konum, parola ve finansal veri gibi hassas bilgileri vermeyin. Uzmanlar, kullanıcıları dijital güvenlik konusunda uyarıyor.

CHATGPT İLE PAYLAŞILMAMASI GEREKEN 7 KRİTİK BİLGİ
Yapay zeka tabanlı sohbet robotları, son yıllarda günlük hayatın ayrılmaz bir parçası haline gelirken, kullanıcıların veri güvenliği konusunda daha dikkatli olması gerektiği belirtiliyor. En çok kullanılan yapay zeka araçlarından biri olan ChatGPT için uzmanlardan önemli bir uyarı geldi.
KİŞİSEL VERİLERİNİZİ AÇIKLAMAYIN
ChatGPT ile yapılan yazışmalarda T.C. kimlik numarası, pasaport bilgileri, ikamet adresi ve vergi numarası gibi kişisel bilgiler asla paylaşılmamalı. Bu bilgiler, kötü niyetli kişilerin eline geçmesi durumunda ciddi güvenlik sorunlarına yol açabilir.

CANLI KONUMUNUZU PAYLAŞMAYIN
Anlık konum bilgisi vermek; “Şu an buradayım”, “Evim şurada” gibi ifadeler, dijital ortamda iz bırakmanıza neden olabilir. Uzmanlara göre bu durum, sizi takip etmek isteyen kişi veya yazılımların işini kolaylaştırır.
AİLE VE ÖZEL HAYAT DETAYLARI
Çocuklarınız, eşiniz, günlük rutinleriniz, sosyal hayatınıza dair bilgiler... Tüm bunlar masum görünse de, siber güvenlik açısından ciddi riskler barındırır.
İLETİŞİM BİLGİLERİNİZİ GİRMEYİN
Telefon numarası, e-posta adresi gibi iletişim bilgileriniz, ChatGPT ile paylaşılmamalı. Bu tür veriler kimlik avı saldırılarının hedefi haline gelebilir.
ŞİFRE VE PAROLALARI VERMEYİN
Sosyal medya ya da diğer dijital platformlara ait şifrelerin paylaşılması, büyük bir güvenlik açığı oluşturur. ChatGPT gibi platformlar, bu tür bilgileri saklamasa da, kullanıcılar için risk teşkil edebilir.
FİNANSAL VERİLERİ GİZLİ TUTUN
Kredi kartı numarası, IBAN, banka hesap bilgileri veya ödeme geçmişi gibi veriler kesinlikle girilmemeli. Dolandırıcılık ve maddi kayıp riski bu tür bilgilerle doğrudan bağlantılıdır.
İŞYERİNE AİT BİLGİLERİ AKTARMAYIN
Kurumsal yazışmalar, müşteri verileri ya da proje belgeleri gibi gizli içerikler, ChatGPT’ye yüklenmemeli. Geçmişte, bir mühendisin gizli kaynak kodunu yapay zekaya yazması sonucu Samsung’un bu sistemleri yasaklaması dikkat çekici bir örnek olarak gösteriliyor.
SAĞLIK SORULARINDA DOKTORA DANIŞIN
Uzmanlar, ChatGPT’nin tıbbi tavsiye verme yetkisi olmadığını hatırlatarak, sağlıkla ilgili ciddi soruların mutlaka doktorlara yöneltilmesi gerektiğini vurguluyor.
GÜVENLİ KULLANIM İÇİN BİLİNÇ ŞART
Yapay zekayla yapılan her etkileşimde, kullanıcıların veri güvenliği, kişisel mahremiyet ve dijital iz konusunda dikkatli olması gerektiği ifade ediliyor.

Yorumlar
Kalan Karakter: