HABERLER

Teknoloji ilerledikçe bilgiye ulaşmak kolaylaşsa da, bilgiye ne kadar güvenebileceğimiz belirsizleşiyor. Google’ın kısa süre önce tanıttığı Veo 3 modeliyle gündeme gelen hiper-gerçekçi video üretimi yaratıcılığı desteklese de, “deepfake” tehlikesini artırıyor. Gerçek ile kurgunun birbirine bu kadar yaklaştığı bir çağda, doğruluk payını ayırt etmek gittikçe zorlaşıyor.

Yapay Zeka %41.5 Oranında Yanıltıyor

NewsGuard’ın her ay yayımladığı “AI Misinformation Monitor” raporları, ChatGPT, DeepSeek gibi en yaygın kullanılan 11 yapay zeka sohbet robotunun analizlerini içeriyor. Bu çalışmalara göre modellerin %30.9’u yanlış bilgileri tekrar ederken, %10.6’sı sorulara yanıt veremiyor veya kaçamak yanıtlar sunuyor. Doğru bilgiyi sunma oranı ise %58.48. Toplamda %41.52’lik bir hata oranı, güncel veri erişimi olan bu araçların, bilgi doğruluğu açısından dikkatlE değerlendirilmesi gerektiğini gösteriyor. Bu sonuçlar, teknolojinin hızla geliştiği bir ortamda, doğruluk ve güvenlik sistemlerinin geride kaldığını ve bu nedenle teknoloji kullanımında daha dikkatli olunması gerektiğini ortaya koyuyor.

Özellikle kurumsal hayatta, bu tarz bilgi hataları önemli sonuçlar doğurabiliyor. Yanlış yorumlanan bir regülasyon özeti, hatalı hazırlanan bir rapor ya da doğruluğu teyit edilmemiş bir içerikle hazırlanan yönetim sunumu, stratejik kararlarda sapmalara yol açarken kurumsal itibar için risk oluşturabiliyor. Yapay zekanın sunduğu hız ve verimlilikten faydalanırken, doğrulama süreçleri geliştirmek artık her zamankinden daha fazla önem taşıyor.

Dijital dönüşümde güvenlik filtresi insan olmalı

Gilda&Partners kurucusu Jilda Bal, dijital dönüşümle yapay zekanın iş dünyasında hızla yaygınlaştığını ancak her yanıtın doğru, her içeriğin güvenilir olmadığını vurguluyor: “Artık hepimizin cebinde bir yapay zeka aracı var. Ancak yapay zekanın sunduğu her veriye sorgulamadan güvenmek mümkün değil. Genelde kararlar alırken nasıl birden fazla kaynaktan doğrulama yapıyorsak, yapay zeka sonuçları için de aynı özeni göstermeliyiz. Bu araçlar hızlı ve etkili olabilir, fakat unutmayalım ki  etik süzgeçleri yok. Güven filtresi hala bizde. Veri arttıkça, doğruya ulaşma sorumluluğu bize düşüyor.

İK uzmanları olarak bizler, %41.52’lik bu hata oranını sadece bir istatistik olarak göremeyiz, görmemeliyiz. İster iç iletişimde, ister insan kaynakları süreçlerinde ya da liderlik kararlarında olsun, teknolojiyi akıllıca kullanmak ancak insanı merkeze alarak mümkün. Yanlış yönlendiren bir veri, bir adayın kariyerini, bir çalışanın güvenini, bir liderin kararını etkileyebilir. Bu araçları kullanırken yön duygumuzu kaybetmemek, etik pusulamızı her zaman açık tutmak zorundayız.”

SON HABERLER

Yönetim Kurullarında Kadın Temsili Artmadıkça Samimiyetten Söz Edemeyiz

Gilda&Partners Consulting Kurucusu Jilda Bal, son dönemlerde şirket stratejilerinde görünür şekilde yer almaya başlayan eşitlik ve kapsayıcılık başlıklarının son bir yıl içinde ivmesini yitirdiğini dile getiriyor. Bal ile bu durumun nedenlerini ve çözüm önerilerini konuştuk.

Eşitlikçi Hikayeler

İş dünyasında kadınların kariyer yolculuğu uzun yıllardır üst düzey pozisyonlara ulaşmada yaşanan sorunlara ilişkin “cam tavan” metaforuyla anlatılıyor. Ancak McKinsey ve Lean’in “İş Hayatında Kadınlar” raporu, sorunun yalnızca üst kademelerde değil, çok daha erken bir noktada başladığını net biçimde ortaya koyuyor.

Yılın İlk Enflasyon Verisi Beyaz Yaka İçin Ne Anlama Geliyor

TÜİK verilerine göre Ocak 2026’da aylık enflasyon %4,84 olarak gerçekleşti. Bir önceki ay, Aralık 2025’te aylık artış %0,89 seviyesindeydi. Yılın ilk ayında görülen bu hızlanma, enflasyonun yıl geneline eşit dağılmadığını ve özellikle ücret planlamalarının yapıldığı dönemlerde algıyı güçlü biçimde etkileyebildiğini ortaya koydu.