
- Kim Kardashian, ChatGPT’den yardım istedikten sonra hukuk fakültesindeki sınavlarda başarısız olduğunu itiraf etti
- Son zamanlardaki viral söylentiler, ChatGPT’nin yasal ve tıbbi tavsiye sunmayı bıraktığını iddia etti
- Ancak yapay zeka kullanıcıları güveni gerçek uzmanlıkla karıştırabilir ve daha dikkatli olmaları gerekir.
Muhtemelen dünyanın en ünlü hukuk öğrencisi olan Kim Kardashian, üretken yapay zekayı harekete geçirdi. Yalan makinesi test videosu sırasında röportaj için Vanity Fuarı, ders çalışmasına ve testler için ChatGPT’yi kullanmayı başardı ancak şunu da ekledi: sohbet robotu‘nin tavsiyesi o kadar yanlıştı ki, ona güvenerek bazı testlerde açıkça başarısız oldu.
Hikayesi özellikle uygun bir anda ortaya çıkıyor. Geçtiğimiz hafta boyunca, ChatGPT’nin yasal ve tıbbi tavsiye vermeyi tamamen bıraktığına dair söylentiler internette hızla yayıldı. Kullanıcılar, ChatGPT’nin yasal ve sağlık sorunlarıyla ilgili belirli soruları yanıtlamayı reddettiğini iddia ederek, suçlu olarak OpenAI’nin güncellenmiş hizmet şartlarında yer alan bir satırı işaret etti. Maddede, “Lisanslı bir profesyonelin uygun katılımı olmaksızın, hukuki veya tıbbi tavsiye gibi, lisans gerektiren özel tavsiyelerin sağlanması” belirtilmektedir.
Bu ifade, OpenAI’nin ChatGPT’yi görünüşte popüler olan iki işlevi için kullanmayı imkansız hale getirdiğine dair bir spekülasyon dalgasına yol açtı. Kesin olmayan bir anlayışa dayanan hemen hemen tüm internet spekülasyonlarında olduğu gibi, bunun da doğru olmadığı ortaya çıktı. OpenAI Health AI lideri Karan Singhal, X’te bunun hizmet şartlarının yeni bir parçası olmadığını ve hiçbir şeyin değişmediğini açıkladı.
Hukuki veya tıbbi konuları hâlâ tartışabilirsiniz. Bu cümle bir süre önce ChatGPT’nin lisanslı bir profesyonelmiş gibi davranmadığını yasal koruma açısından açıkça belirtmek için eklenmiştir. Cümlenin dikkat çekmesinin nedeni, son güncellemeden önce ChatGPT’nin hizmet şartlarını bilmeyen biri için yeni görünmesi olabilir.
Doğru değil. Spekülasyonlara rağmen bu, şartlarımızda yeni bir değişiklik değil. Model davranışı değişmeden kalır. ChatGPT hiçbir zaman profesyonel tavsiyenin yerini tutmadı ancak insanların yasal ve sağlıkla ilgili bilgileri anlamalarına yardımcı olacak harika bir kaynak olmaya devam edecek. https://t.co/fCCCwXGrJv3 Kasım 2025
Ancak bu söylentinin yol açtığı darbe, Kardashian’ın yapay zeka hayal kırıklığıyla ilgili kamuoyuna açık hikayesiyle birleşince, insanların yapay zeka araçlarının nerede yararlı olduğunu ve ne zaman yükümlülük haline gelebileceklerini her zaman kavrayamadıklarını vurguluyor. ChatGPT, kavramları açıklama ve bilgileri özetleme konusunda harika olabilir. Ancak buna yetkili bir hukuki veya tıbbi tavsiye kaynağı gibi davranmak iyi bir fikir değildir.
Kardashian’ın ChatGPT’ye yaklaşımı pek de benzersiz değil. Bir test sorusunun fotoğrafını çekip ChatGPT’den cevabını isteme fikri yeterince mantıklı. Cevap ne kadar kendinden emin görünürse görünsün, otomatik olarak test puanını belirleyecek kadar iyi bir cevap beklemek biraz saflıktan da öte bir şeydi.
Bazen ChatGPT’nin en büyük kusuru bilgi boşlukları değil, kendine güvenen tonudur. Tamamen icat etse bile neredeyse her zaman bir konunun derinlemesine anlaşılmasını ima eden bir dil kullanır. Biraz kibirli halüsinasyonlar bunlar.
Kardashian acemi bir teknoloji kullanıcısı değil. Milyon dolarlık şirketleri yönetiyor ve yıllardır hukuk okuyor. Ancak tüm bu deneyime rağmen, daha az ünlü ChatGPT kullanıcılarının karşılaştığı aynı tuzağa düştü. ChatGPT’den HIPAA’nın özetini istemek başka bir şey. Bir vasiyet taslağı hazırlamak, onu mahkemeye sunmak ve daha sonra bunun uydurma hukuk dilleriyle dolu olduğunu öğrenmek başka bir şeydir.
Yapay zeka tavsiye farkındalığı
OpenAI’nin şartları, kullanıcılara ChatGPT’nin bırakın hukuk veya tıp, hiçbir alanda profesyonel olmadığını hatırlatır. İnsanların bunu ne olursa olsun yaptığının farkında olduğunu ve bu durumdan rahatsızlık duyduğunu gösterir.
ChatGPT hâlâ bir kira sözleşmesinin şifresini çözmeye veya tıbbi şartları basitleştirmeye yardımcı olabilir ancak lisanslı profesyonellerin yerini alamaz. Yorumlarının yasallığını veya doğruluğunu garanti edemez ve bir arkadaşınıza yanlış teşhis koyarsanız veya sahte içtihatlara dayalı bir dava açarsanız kesinlikle sorumlu tutulamaz.
Zenginliğin yapay zeka tarafından kandırılamayacağınız anlamına gelmediğini bilmek cesaret verici. Konu ne olursa olsun hepimiz ChatGPT’nin yanıtlarını tekrar kontrol etmeliyiz. Yapay zeka sohbet robotunun hâlâ açık olacağını söylediği kapalı bir restorana gitmek utanç verici, ancak hukuk ya da ölüm kalım meselelerine ilişkin yanıtlarına körü körüne inanmak daha da pervasızca.
Yapay zeka sohbet robotları, bir sınavdan önce veya kronik bir tıbbi durumu yönetirken çok destekleyici olabilir, ancak yalnızca etkileşime verdiğiniz karar kadar faydalıdırlar.
TechRadar’ı Google Haberler’de takip edin Ve bizi tercih edilen kaynak olarak ekleyin Akışlarınızda uzman haberlerimizi, incelemelerimizi ve görüşlerimizi almak için. Takip Et butonuna tıklamayı unutmayın!
Ve tabii ki siz de yapabilirsiniz TechRadar’ı TikTok’ta takip edin haberler, incelemeler ve video biçimindeki kutu açma işlemleri için bizden düzenli olarak güncellemeler alın WhatsApp fazla.
Her bütçeye uygun en iyi iş dizüstü bilgisayarları
