Written by 19:42 LLM, Sağlık

ChatGPT Health: Tıbbi kayıtları ChatGPT’ye bağlamak — büyük vaatler, büyük riskler

ChatGPT Health: Tıbbi kayıtları ChatGPT’ye bağlamak — büyük vaatler, büyük riskler

OpenAI, ChatGPT içinde sağlık ve wellness odaklı bir bölüm olan ChatGPT Health’i duyurdu; kullanıcıların tıbbi kayıtlarını ve uygulama verilerini (Apple Health, MyFitnessPal vb.) güvenli şekilde bağlamasına izin veriyor. OpenAI, haftalık 230 milyon kadar sağlık sorusunun ChatGPT’ye yöneltildiğini söylüyor ve özelliği geliştirirken 260’tan fazla hekimle iki yıl çalıştığını belirtiyor. Ancak makine öğrenimi modellerinin sıklıkla “confabulate” (gerçekçi ama yanlış bilgi üretme) ettiği ve SFGate’in, ChatGPT önerileriyle ilişkili bir ölüm vakasını raporladığı örnek gibi endişeler devam ediyor. OpenAI, ChatGPT Health’in teşhis veya tedavi amacıyla kullanılmaması gerektiğini vurguluyor ve yeni bölümdeki sohbetlerin model eğitiminde kullanılmayacağını söylüyor.

OpenAI, ChatGPT içinde “ChatGPT Health” adını verdiği yeni bir alan açıkladı; amaç, sağlık ve wellness konuşmaları için kullanıcının tıbbi kayıtlarını ve sağlık/fitness uygulamalarını (ör. Apple Health, MyFitnessPal) güvenli biçimde bağlayarak daha kişiselleştirilmiş yanıtlar üretmek. Şirket, kullanıcıların randevu hazırlığı, bakım talimatlarının özetlenmesi ve test sonuçlarının anlaşılmasına yardımcı olacak özellikler sunmayı hedeflediğini söylüyor. OpenAI ayrıca haftalık yaklaşık 230 milyon sağlık sorusunun ChatGPT’ye yöneltildiğini ve yeni özelliği geliştirirken 260’ın üzerinde hekimle iki yıldır çalıştıklarını belirtti; şirket, ChatGPT Health sohbetlerinin model eğitimi için kullanılmayacağını taahhüt etti.

Buna rağmen makalede vurgulandığı üzere, generatif dil modellerinin doğruluk sorunları var: modellerin istatistiksel dil örüntülerine dayanarak zaman zaman gerçekçi ama yanlış bilgiler (confabulation/hallucination) üretmesi biliniyor. SFGate’in yürüttüğü soruşturmaya göre, Mayıs 2025’te ChatGPT’den aldığı tavsiyelerle ilişkili olduğu iddia edilen bir ölüm vakası (19 yaşındaki Sam Nelson) rapor edildi; bu ve benzeri örnekler, uzun sohbetlerdeki güvenlik zaaflarını ve kullanıcıların yapay zekaya fazla güvenmesinin tehlikelerini gösteriyor. OpenAI sözcüsü konuya “heartbreaking” (yürek parçalayıcı) diye değindi ve şirket modellerinin hassas sorulara dikkatle yanıt verecek şekilde tasarlandığını belirtti.

Ayrıca eleştirmenler, büyük dil modellerinin (LLM) eğitiminde kullanılan veri setlerinin çevrimiçi kaynaklardan derlendiğini; bunların içinde hatalı ya da tehlikeli bilgilerin de bulunduğunu ve bunun sağlık gibi hassas alanlarda risk oluşturduğunu söylüyorlar. Transparency Coalition’dan Rob Eleveld’in ifadeleri makalede aktarıldığı gibi, temel modellerin bu alanda tamamen güvenli olmasının “imkânsız” olduğunu savunuyor. OpenAI ise ChatGPT Health’in “destekleyici” amaçlı olduğunu, teşhis/tedavi yerine kullanılması gibi bir niyetlerinin olmadığını net biçimde belirtiyor.

Şirket, ChatGPT Health’i ABD’de bir bekleme listesi üzerinden kullanıma sunuyor ve önümüzdeki haftalarda daha geniş erişim planlandığını açıkladı. Kullanıcıların, hizmetin yetenekleri ve sınırlamaları hakkında bilinçli olması; tıbbi kararlar veya acil durumlarda yetkili sağlık profesyonellerine başvurmaya devam etmesi vurgulanıyor.

Kaynaklar ve Bağlantılar:

Visited 11 times, 1 visit(s) today
Etiketler: , , , , Last modified: 12 Ocak 2026
Close