Yapay zeka artık sadece bir teknoloji trendi değil; finans, sağlık, sigorta, kamu ve perakende gibi sektörlerin temel karar mekanizmalarına yerleşmiş durumda. Bu dönüşüm, beraberinde kritik bir soruyu getiriyor: Bu sistemlere ne kadar güvenebiliriz?
TrustAI: Kurumların yapay zekada güven ve uyum arayışı
Yapay zeka artık sadece bir teknoloji trendi değil; finans, sağlık, sigorta, kamu ve perakende gibi sektörlerin temel karar mekanizmalarına yerleşmiş durumda. Bu dönüşüm, beraberinde kritik bir soruyu getiriyor: Bu sistemlere ne kadar güvenebiliriz?
Özellikle yüksek riskli alanlarda, bir yapay zeka modelinin sadece "iyi tahmin yapması" yeterli değil. Aynı zamanda nasıl karar verdiğini açıklayabilmesi, ayrımcılık yapmaması, denetlenebilir olması ve mevzuata tam uyum sağlaması gerekiyor. İşte tam bu noktada, Türkiye merkezli bir girişim olan TrustAI, kurumlara kapsamlı bir yapay zeka yönetişimi çerçevesi sunmayı hedefliyor.
2025’in Ağustos ayında Prof. Dr. Süreyya Akyüz tarafından kurulan TrustAI, yıllara dayanan akademik birikimi pratik kurumsal ihtiyaçlarla buluşturan bir yapı olarak konumlanıyor. Girişim, klasik “model geliştirip teslim eden” yapay zeka şirketlerinden farklı olarak, tüm süreci yöneten bir güven ve uyum katmanı inşa etmeye odaklanıyor.
TrustAI nedir, neyi çözmeye çalışıyor?
TrustAI, kurumların yapay zeka sistemlerini daha şeffaf, açıklanabilir, adil, güvenilir ve mevzuata uyumlu hale getirmeyi amaçlayan bir girişim. Özellikle finans ve diğer yüksek riskli sektörlerde kullanılan yapay zeka çözümlerine odaklanarak, sadece teknik performansı değil; denetlenebilirlik, risk yönetimi ve regülasyon uyumu gibi boyutları da sürecin merkezine alıyor.
Girişimin yaklaşımı, yapay zekayı sadece bir teknoloji projesi değil, kurumsal yönetişim konusu olarak görmek üzerine kurulu. Bu nedenle TrustAI, kurumların şu sorularına yanıt arıyor:
- Model kararları geriye dönük olarak açıklanabiliyor mu?
- Farklı demografik gruplar arasında adalet (fairness) sağlanıyor mu?
- Model hataları, kurum için hangi iş ve itibar risklerini oluşturuyor?
- AB Yapay Zeka Tüzüğü (AI Act) gibi regülasyonlara ne ölçüde uyum var?
- Denetim veya dava süreçlerinde, modelin savunulabilirliği ne kadar güçlü?
Bu soruların her biri, özellikle bankacılık, sigorta, kredi skorlama, risk derecelendirme, sağlık sigortası fiyatlama ve işe alım sistemleri gibi alanlarda kritik birer iş gerekliliği haline gelmiş durumda.
Kuruluş hikâyesi: Akademiden iş dünyasına uzanan bir köprü
TrustAI, 2025’in Ağustos ayında Prof. Dr. Süreyya Akyüz tarafından hayata geçirildi. Akyüz’ün yapay zeka, optimizasyon ve açıklanabilir yapay zeka (Explainable AI – XAI) alanlarındaki akademik çalışmaları, girişimin temelini oluşturuyor. Amaç, uzun yıllar boyunca üretilen teorik bilgi ve metodolojiyi, kurumların gerçek hayattaki problemlerine uygulanabilir çözümler olarak sunmak.
Bu çerçevede TrustAI, sıfırdan her şeyi yeniden icat etmeye çalışmak yerine, açık kaynak araçlar ve modern yazılım bileşenleri üzerine kendi metodolojisini inşa eden bir yaklaşım benimsiyor. Yani girişim, “kendi başına her şeyi yapan kapalı bir ürün” yerine, kurumların mevcut teknoloji ekosistemine entegre olan esnek bir yönetişim katmanı sunuyor.
Bu yaklaşım, günümüzde hızla gelişen yapay zeka ekosisteminde oldukça akılcı. Zira hem kurumların hali hazırda kullandığı araçlarla uyumu kolaylaştırıyor hem de uzun vadeli sürdürülebilirlik sağlıyor. Benzer şekilde, Anthropic Claude Code Routines ile akıllı otomasyon gibi çözümler de, tamamen yeni bir yapı kurmak yerine mevcut süreçleri akıllı katmanlarla iyileştirmeyi hedefliyor.
TrustAI’in sunduğu değer önerisi: Sadece model değil, sistem düzeyinde güven
TrustAI’in en önemli farkı, sadece “model geliştirme”ye odaklanmaması. Girişim, yapay zeka sistemlerini bütüncül bir çerçevede ele alıyor. Bu çerçeve, aşağıdaki temel alanları kapsıyor:
- Açıklanabilirlik (Explainability)
Bir modelin neden belirli bir kararı verdiğini, teknik ve iş birimleri için anlaşılır hale getirmek, hem regülatörler hem de iç paydaşlar açısından kritik. TrustAI, bu noktada özellik önem düzeyi analizi, karar ağaçlarıyla açıklama, örnek bazlı açıklamalar gibi yöntemleri kurumsal süreçlere uyarlamaya odaklanıyor.
- Adalet ve önyargı analizi (Fairness & Bias)
Özellikle kredi, sigorta, işe alım gibi alanlarda, modellerin farklı gruplar (cinsiyet, yaş, bölge vb.) üzerinde ayrımcı sonuçlar üretmemesi gerekiyor. TrustAI, bu alanda metrik bazlı analizler ve politika önerileriyle kurumlara rehberlik etmeyi hedefliyor.
- Güvenilirlik ve dayanıklılık (Reliability & Robustness)
Modelin farklı veri koşullarında nasıl davrandığı, uç senaryolarda ne kadar stabil kaldığı, saldırılara veya manipülasyonlara ne kadar açık olduğu gibi konular, güvenilirlik başlığı altında değerlendiriliyor.
- Risk analizi ve mevzuata uyum
AB Yapay Zeka Tüzüğü gibi düzenlemeler, yüksek riskli sistemler için oldukça detaylı gereklilikler getiriyor. TrustAI, kurumların bu gereklilikleri sistematik bir çerçeveyle karşılamasına yardımcı olmayı hedefliyor.
Bu yaklaşım, TrustAI’i sadece teknik bir "XAI aracı" olmaktan çıkarıp, yapay zeka yönetişimi (AI governance) alanında konumlandırıyor. Benzer şekilde, globalde de birçok büyük oyuncu, yapay zeka ürünlerinin yanında, bu ürünlerin güvenli ve uyumlu kullanımını sağlayan yönetişim katmanlarına yatırım yapıyor.
Gelir modeli ve büyüme stratejisi
TrustAI’in gelir modeli, hibrit bir yapıya dayanıyor. Kısa ve orta vadede şu başlıklar öne çıkıyor:
- Danışmanlık hizmetleri: Yapay zeka projelerinin uçtan uca incelenmesi, risk ve uyum analizleri, yönetişim çerçevesi tasarımı.
- Kurumsal uyum ve risk analizi: Özellikle finans ve sigorta gibi regüle sektörlerde, mevcut AI sistemlerinin mevzuata ve iç politika çerçevelerine uygunluğunun değerlendirilmesi.
- Eğitim programları: Kurum içi ekipler için açıklanabilir yapay zeka, etik AI, regülasyonlara uyum ve risk yönetimi başlıklarında eğitimler.
- Gelecekte SaaS ve lisanslama: Orta vadede, ölçeklenebilir yazılım ürünleri ve lisanslama modeliyle, tekrarlanabilir çözümler sunma hedefi.
Girişim şu ana kadar dış yatırım almadan ilerliyor. Büyüme stratejisini ise öncelikle pilot projeler, ürün doğrulama süreçleri ve kurumsal iş birlikleri üzerine kurmuş durumda. Bu, özellikle yapay zeka yönetişimi gibi güven temelli alanlarda sıkça görülen bir yol: önce sahada değerini kanıtlayan, ardından ölçeklenen çözümler.
Bu yaklaşım, farklı alanlardaki yatırım ve büyüme örnekleriyle de uyumlu. Örneğin, veri ve AI odaklı şirketlerin değerlenme dinamiklerini incelediğimiz 9fin, 170 Milyon Dolarlık Yatırımla Değerini Katladı yazısında da, önce niş bir alanda uzmanlaşma, sonra küresel ölçeklenme stratejisinin benimsendiğini görüyoruz.
AB Yapay Zeka Tüzüğü ve regülasyon dalgasının etkisi
TrustAI’in konumlandığı alanı anlamak için, AB Yapay Zeka Tüzüğü (EU AI Act) ve genel regülasyon trendini kısaca hatırlamak gerekiyor. Bu düzenleme, AI sistemlerini risk seviyelerine göre sınıflandırıyor ve özellikle yüksek riskli sistemler için oldukça detaylı yükümlülükler getiriyor:
- Risk yönetim sistemi kurma zorunluluğu
- Veri kalitesi ve veri yönetişimi gereklilikleri
- Teknik dokümantasyon ve kayıt tutma zorunlulukları
- İnsan gözetimi ve müdahale mekanizmaları
- Şeffaflık ve açıklanabilirlik kriterleri
Finans, sağlık, kamu hizmetleri, kritik altyapılar, işe alım ve eğitim gibi alanlarda kullanılan yapay zeka sistemleri genellikle yüksek riskli kategorisine giriyor. Bu da, sadece Avrupa’da değil, global ölçekte faaliyet gösteren tüm kurumlar için yeni bir uyum gündemi anlamına geliyor.
TrustAI’in hedeflediği boşluk da tam burada ortaya çıkıyor: Kurumların, halihazırda kullandıkları veya kullanmayı planladıkları yapay zeka sistemlerini bu yeni regülasyon çerçevesine uygun hale getirmelerine yardımcı olmak. Bu sadece teknik bir konu değil; aynı zamanda hukuk, risk, uyum, iş birimleri ve IT arasında köprü kurmayı gerektiren çok disiplinli bir süreç.
Benzer regülasyon baskılarını, farklı alanlardaki şirketlerin yaşadığı uyum sorunlarında da görüyoruz. Örneğin Adobe, zorlayıcı abonelik iptalleri için 75 milyon dolar ödeyecek haberinde olduğu gibi, kullanıcı hakları ve şeffaflık ihlalleri, şirketler için ciddi maliyetlere yol açabiliyor. Yapay zeka alanında da benzer riskler, yeni dönemin en kritik başlıklarından biri olacak.
Türkiye’deki işletmeler için ne anlama geliyor?
Türkiye’de bankacılık, ödeme hizmetleri, sigorta ve telekom gibi alanlarda yapay zeka kullanımı son yıllarda ciddi şekilde artmış durumda. Kredi skorlama, dolandırıcılık tespiti, müşteri segmentasyonu, çağrı merkezi otomasyonu ve kişiselleştirilmiş teklif sistemleri gibi pek çok alanda AI modelleri zaten aktif kullanılıyor.
Bu noktada iki temel dinamik öne çıkıyor:
- Regülasyon baskısının ithalatı
Türkiye’de faaliyet gösteren birçok kurum, aynı zamanda Avrupa’da veya Avrupa ile iş yapan yapılar. Dolayısıyla AB Yapay Zeka Tüzüğü gibi düzenlemeler, doğrudan olmasa da dolaylı bir uyum baskısı yaratıyor. Özellikle büyük bankalar, fintech’ler ve çok uluslu şirketler, AI sistemlerini tasarlarken bu standartları dikkate almak zorunda kalacak.
- Güven ve itibar yönetimi
Yapay zeka tabanlı bir kredi reddi, sigorta fiyatlaması veya işe alım kararı, kamuoyunda "adaletsiz" veya "ayrımcı" olarak algılandığında, kurumlar için ciddi itibar riskleri doğabilir. Bu nedenle, sadece regülasyon değil, müşteri beklentileri de şeffaflık ve açıklanabilirlik talep ediyor.
TrustAI gibi bir girişim, Türkiye’deki kurumlara şu açılardan değer sunma potansiyeline sahip:
- Mevcut AI projelerini risk ve uyum perspektifinden taramak
- Yeni geliştirilecek projeler için baştan yönetişim çerçevesi tasarlamak
- Kurum içi ekipleri, açıklanabilir yapay zeka ve etik AI konularında yetkinleştirmek
- Özellikle finans ve sigorta gibi alanlarda, regülatörle iletişimde kullanılabilecek dokümantasyon ve raporlama altyapısını desteklemek
Türkiye’de yatırım ve girişim ekosisteminin hızla geliştiğini, 2025'in ilk yarısında Türkiye'de yatırım hareketliliği yazımızda detaylıca ele almıştık. Bu ortamda, yapay zeka yönetişimi gibi niş ama stratejik alanlarda konumlanan girişimlerin, önümüzdeki dönemde daha fazla görünürlük kazanması beklenebilir.
İstatistikler ve piyasa verileri: Neden şimdi?
Küresel ölçekte bakıldığında, yapay zeka pazarının büyüklüğü ve yönetişim ihtiyacı arasındaki fark giderek açılıyor:
- Farklı araştırmalara göre, küresel yapay zeka pazarı 2024 itibarıyla 200–250 milyar dolar bandında ve 2030’a kadar yıllık bileşik büyüme oranının (CAGR) %30’un üzerinde olması bekleniyor.
- Buna karşın, AI yönetişimi, uyum ve risk yönetimi odaklı çözümler pazarının henüz erken aşamada olduğu, ancak önümüzdeki 5–7 yıl içinde toplam AI harcamaları içinde anlamlı bir paya ulaşacağı öngörülüyor.
- Büyük kurumsal şirketlerin önemli bir kısmı, AI projelerinin %20–40’ının regülasyon, etik kaygılar veya iç onay süreçleri nedeniyle ertelendiğini veya iptal edildiğini belirtiyor.
Bu tablo, TrustAI gibi girişimlerin hedeflediği alanın sadece "niş bir ihtiyaç" değil, aynı zamanda pazar boşluğu olduğunu gösteriyor. Kurumlar, bir yandan yapay zekadan maksimum iş değeri elde etmek isterken, diğer yandan regülasyon, itibar ve etik riskleri yönetmek zorunda.
Ayrıca, globalde büyük teknoloji şirketlerinin de benzer alanlara yöneldiğini görüyoruz. Örneğin, Amazon yapay zeka ajanı ile satış yönetiminde devrim haberinde olduğu gibi, AI sadece otomasyon değil, aynı zamanda karar destek ve yönetişim katmanı olarak da konumlanıyor. Bu eğilim, AI projelerinde "sadece model" yaklaşımının yerini, "uçtan uca sistem ve yönetişim" anlayışına bıraktığını gösteriyor.
Gelecek beklentileri: Yapay zeka yönetişimi ana akıma mı dönüşecek?
Önümüzdeki 3–5 yıllık dönemde, AI yönetişimi kavramının, özellikle büyük kurumlar için standart bir gereklilik haline gelmesi bekleniyor. Bu da TrustAI gibi girişimler için hem fırsatlar hem de zorluklar barındırıyor.
Beklentiler şu yönde şekilleniyor:
- Yüksek riskli sektörlerde zorunluluk: Bankacılık, sigorta, sağlık, kamu ve kritik altyapı alanlarında, yapay zeka projeleri için açıklanabilirlik, adalet ve risk analizi gibi başlıkların regülatif zorunluluk haline gelmesi muhtemel.
- İç denetim ve uyum birimlerinin rolü artacak: Bugün daha çok finansal süreçlere odaklanan iç denetim ve uyum ekipleri, önümüzdeki dönemde AI sistemlerini de denetlenen varlıklar listesine eklemek zorunda kalacak.
- Teknik ve hukuki ekipler arasında köprü rolü: AI yönetişimi, yazılım ekipleri ile hukuk/risk ekipleri arasında bir çevirmen rolü gerektiriyor. TrustAI’in konumlandığı alan, tam da bu çok disiplinli ihtiyaç noktasında.
Uzun vadede ise, yapay zeka sistemlerinin otomatik olarak kendi risk ve uyum raporlarını üretebildiği, açıklamalarını farklı paydaşlara göre (regülatör, son kullanıcı, iç denetim vb.) uyarlayabildiği çözümler görebiliriz. Bu noktada, TrustAI’in bugün geliştirdiği metodolojiler, yarının otomatize AI yönetişim platformlarının temelini oluşturabilir.
Sonuç: TrustAI neden takip edilmeli?
Yapay zeka, kurumlar için hem büyük bir fırsat hem de ciddi bir risk alanı. Özellikle yüksek riskli sektörlerde, şeffaflık, açıklanabilirlik, adalet ve uyum başlıkları artık "olsa iyi olur" değil, olmazsa olmaz kriterler haline geliyor.
TrustAI, bu yeni dönemde kurumların ihtiyacı olan güven katmanını inşa etmeye odaklanan, Türkiye çıkışlı bir girişim olarak dikkat çekiyor. Açık kaynak araçlar üzerine kurulu, metodoloji odaklı ve bütüncül yönetişim yaklaşımı ile, hem yerel hem de küresel ölçekte artan bir ihtiyaca yanıt verme potansiyeline sahip.
Önümüzdeki yıllarda, yapay zeka alanında sadece "en iyi tahmini yapan" modeller değil, en şeffaf, en denetlenebilir ve en uyumlu sistemler fark yaratacak. TrustAI gibi oyuncular da tam bu dönüşümün merkezinde konumlanacak.
Kurumlar için mesaj net: Yapay zekadan maksimum faydayı elde etmek istiyorsanız, sadece modele değil, modelin etrafındaki yönetişim çerçevesine de yatırım yapmanız gerekiyor. TrustAI, bu yolculukta ortaya çıkan yeni nesil stratejik çözüm ortaklarından biri olmaya aday görünüyor.



