ChatGPT’de bir dönemin sonu… Artık finans uzmanı ya da doktor gibi kullanılamayacak

Dünyada en çok kullanılan yapay zeka uygulamalarından ChatGPT’de bir dönem sona eriyor. Yapay zeka destekli sohbet robotu artık sağlık, finans ve hukuk konularında danışmanlık vermeyecek.

OpenAI, ChatGPT’ye yeni kısıtlamalar getirdi; artık model, sağlık, hukuk ve finans konularında tavsiye veremeyecek ve kullanıcıları uzmanlara yönlendirecek. ChatGPT artık danışman değil, eğitim aracı olarak kullanılacak.

29 Ekim itibarıyla geçerli olan düzenlemeler, ChatGPT’nin artık tıbbi, hukuki ve finansal konularda doğrudan tavsiye veremeyeceğini ortaya koyuyor. Model, bundan sonra “danışman” değil, “eğitim aracı” olarak tanımlanacak ve kullanıcıları gerekli durumlarda doktor, avukat veya mali müşavir gibi uzmanlara yönlendirecek.

'YANLIŞ YÖNLENDİRME RİSKİNİN' AZALMASI BEKLENİYOR

Yeni kurallar, özellikle sağlık, hukuk ve finans alanında kırmızı çizgiler çiziyor. Artık model, ilaç isimleri veya dozaj veremeyecek, dava dilekçesi hazırlayamayacak ve yatırım tavsiyesi sunamayacak. Uzmanlar, bu değişikliğin yanlış yönlendirme riskini azaltacağını ve kullanıcıların gelir, kimlik veya banka bilgilerini paylaşmasının veri güvenliği açısından tehlikeli olduğunu belirtiyor.

EMPATİ KURAMAYACAĞI İÇİN MEN EDİLDİ

Kullanıcı “göğsümde şişlik var” gibi bir belirti girdiğinde, model kanser ihtimalini öne sürebiliyor; ancak bu durum zararsız bir lipom çıkarsa kullanıcı yanıltılmış olabiliyor. Bu nedenle ChatGPT artık empati kuramayacağı ve bireysel riskleri analiz edemeyeceği gerekçesiyle bu tür tavsiyelerden men edildi.

Aynı şekilde, model psikolojik destek veya terapi amaçlı da kullanılamayacak. Etik sınırlar, eğitim ve sanat üretiminde hile amaçlı kullanımı da kapsıyor.

Yeni kurallar şu ifadelerle net bir şekilde tanımlanıyor:

İlaç ismi veya dozaj verilemez

Dava dilekçesi hazırlanamaz

Yatırım tavsiyesi yapılamaz

Bu adım, yapay zekânın yanlış yönlendirme ihtimaline dikkat çeken uzmanların uzun süredir dile getirdiği endişeleri karşılıyor.

Benzer Videolar