Araştırmacılar, Yapay Zekanın Cerrahi Ortamlardaki Etik Etkilerini İnceliyor

Vektör Yapay Zeka Enstitüsü’ndeki araştırmacılar tarafından ortaklaşa hazırlanan yeni bir teknik inceleme, ameliyatta yapay zekanın etik kurallarını inceleyerek, cerrahi ve yapay zekanın benzer beklentiler taşıdığını ancak etik anlayış açısından ayrıştığını ortaya koyuyor. Cerrahlar elbette ahlaki ve etik ikilemlerle karşı karşıya kalıyorlar, makalede, AI’daki etik çerçevelerin tartışmaya açık bir şekilde şekillenmeye başladığı belirtiliyor.

Ameliyatta, AI uygulamaları büyük ölçüde tamamen cerrahlar tarafından kontrol edilen görevleri yerine getiren makinelerle sınırlıdır. AI, klinik karar destek sisteminde de kullanılabilir ve bu durumlarda, sorumluluk yükü, makinenin veya AI sisteminin insan tasarımcılarına düşer.

AI ve Gizlilik

Gizlilik en önemli etik kaygıdır. AI, büyük veri kümelerinden – özellikle cerrahi sistemler söz konusu olduğunda hasta verileri – tahmin yapmayı öğrenir ve genellikle gizlilik koruma uygulamalarıyla çelişki olarak tanımlanır. İngiltere’nin Londra merkezli Ulusal Sağlık Servisi’nin bir bölümü olan Royal Free London NHS Foundation Trust, Alphabet’in DeepMind’ine rızası olmadan 1,6 milyon hasta hakkında veri sağladı. Ayrı bir gelişmede, geçtiğimiz Kasım ayında Ascension ile sağlık veri paylaşım ortaklığı incelemeye konu olan Google, kişisel olarak tanımlanabilir bilgiler içerdikleri endişeleri üzerine göğüs röntgen taramaları yayınlama planlarından vazgeçti .

Eyalet, yerel ve federal düzeydeki yasalar, gizliliği uyum yönetiminin zorunlu bir parçası haline getirmeyi amaçlamaktadır. Gizlilik, siber güvenlik ve veri ihlallerini ele alan yüzlerce fatura 50 ABD eyaletinde ve Columbia Bölgesi’nde beklemede veya geçmiş durumda. Muhtemelen en kapsamlısı – Kaliforniya Tüketici Mahremiyeti Yasası – yaklaşık iki yıl önce kanunla imzalandı. Bu, şirketlerin bireysel sağlık bilgilerini açıklamadan önce yetki almasını gerektiren ulusal Sağlık Sigortası Taşınabilirliği ve Hesap Verebilirlik Yasası’ndan (HIPAA) bahsetmemektedir. AB’nin Genel Gizlilik Veri Koruma Yönetmeliği (GDPR) gibi uluslararası çerçeveler, tüketicilere kişisel veri toplama ve kullanma üzerinde daha fazla kontrol sağlamayı amaçlamaktadır.

Ancak teknik inceleme yazarları, bugüne kadar alınan önlemlerin yargı yorumlarıyla sınırlı olduğunu ve eksik etik modelleri sunduğunu savunuyorlar. Örneğin, HIPAA hasta kayıtlarından alınan sağlık bakım verilerine odaklanır, ancak hayat sigortası şirketleri veya fitness grubu uygulamaları gibi kapsam dahilindeki kuruluşların dışında üretilen veri kaynaklarını kapsamaz. Dahası, hasta özerkliği görevi AI tarafından alınan kararların açıklanması hakkını ifade ederken, GDPR gibi çerçeveler sadece “bilgilendirilme hakkı” zorunlu kılar ve AI karar verme sürecine karşı iyi tanımlanmış korumalar belirten dil eksik gibi görünmektedir.

Bunun ötesinde, ortak yazarlar , AI cerrahi sistemleri üzerindeki yanlılığın potansiyel etkileri hakkında alarm veriyor. Bir AI sistemini eğitmek için kullanılan verilerin kalitesi ve temsil edilebilirliğiyle ilgili eğitim verilerinin yanlılığı, ameliyat öncesi risk sınıflandırmasını önemli ölçüde etkileyebilir. Demografik özelliklerin yetersiz temsili, yanlış değerlendirmelere neden olarak, hastanın önce tedavi edilmesi veya kapsamlı yoğun bakım kaynakları sunulması gibi kusurlu kararlar verebilir. Ve bir algoritma, eğitiminin bağlamı dışında kullanıldığında ortaya çıkan bağlamsal yanlılık, bir cerrahın sağ veya sol elini kullanması gibi önemsiz uyarıları göz ardı etmesine neden olabilir.

AI bizim için önemli

AI’nın eksikliklerine rağmen, özellikle cerrahi bağlamında, ortak yazarlar AI’nın zarar görmesini önleyebileceği zararı savunuyorlar. Örneğin, tiroidektomide kalıcı hipoparatiroidizm ve tekrarlayan sinir hasarı riski vardır. Bireysel cerrahın asla gözlemleyemeyeceği istatistiksel olarak önemli değişiklikleri gözlemlemek için yeni bir yöntemle binlerce prosedür gerekebilir – en azından kısa bir süre içinde değil. Bununla birlikte, bu binlerce vakayı yüzlerce siteden toplayan yapay zeka tabanlı analitik deposu, bu önemli kalıpları ayırt edebilecek ve iletebilecektir.

“Yapay zekadaki teknolojik ilerlemenin devam etmesi, görevlerinin genişliği ve derinliklerinde hızlı artışlar sağlayacaktır. İlerleme eğrisinden ekstrapolasyon yaparak, makinelerin daha özerk olacağını tahmin edebiliriz ”diye yazdı. “Özerkliğin artması, incelememiz gereken etik ufka daha fazla odaklanmayı gerektiriyor…”

Burakhan Gögce

Burakhan Gögce

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir