HABERLER

Teknoloji ilerledikçe bilgiye ulaşmak kolaylaşsa da, bilgiye ne kadar güvenebileceğimiz belirsizleşiyor. Google’ın kısa süre önce tanıttığı Veo 3 modeliyle gündeme gelen hiper-gerçekçi video üretimi yaratıcılığı desteklese de, “deepfake” tehlikesini artırıyor. Gerçek ile kurgunun birbirine bu kadar yaklaştığı bir çağda, doğruluk payını ayırt etmek gittikçe zorlaşıyor.

Yapay Zeka %41.5 Oranında Yanıltıyor

NewsGuard’ın her ay yayımladığı “AI Misinformation Monitor” raporları, ChatGPT, DeepSeek gibi en yaygın kullanılan 11 yapay zeka sohbet robotunun analizlerini içeriyor. Bu çalışmalara göre modellerin %30.9’u yanlış bilgileri tekrar ederken, %10.6’sı sorulara yanıt veremiyor veya kaçamak yanıtlar sunuyor. Doğru bilgiyi sunma oranı ise %58.48. Toplamda %41.52’lik bir hata oranı, güncel veri erişimi olan bu araçların, bilgi doğruluğu açısından dikkatlE değerlendirilmesi gerektiğini gösteriyor. Bu sonuçlar, teknolojinin hızla geliştiği bir ortamda, doğruluk ve güvenlik sistemlerinin geride kaldığını ve bu nedenle teknoloji kullanımında daha dikkatli olunması gerektiğini ortaya koyuyor.

Özellikle kurumsal hayatta, bu tarz bilgi hataları önemli sonuçlar doğurabiliyor. Yanlış yorumlanan bir regülasyon özeti, hatalı hazırlanan bir rapor ya da doğruluğu teyit edilmemiş bir içerikle hazırlanan yönetim sunumu, stratejik kararlarda sapmalara yol açarken kurumsal itibar için risk oluşturabiliyor. Yapay zekanın sunduğu hız ve verimlilikten faydalanırken, doğrulama süreçleri geliştirmek artık her zamankinden daha fazla önem taşıyor.

Dijital dönüşümde güvenlik filtresi insan olmalı

Gilda&Partners kurucusu Jilda Bal, dijital dönüşümle yapay zekanın iş dünyasında hızla yaygınlaştığını ancak her yanıtın doğru, her içeriğin güvenilir olmadığını vurguluyor: “Artık hepimizin cebinde bir yapay zeka aracı var. Ancak yapay zekanın sunduğu her veriye sorgulamadan güvenmek mümkün değil. Genelde kararlar alırken nasıl birden fazla kaynaktan doğrulama yapıyorsak, yapay zeka sonuçları için de aynı özeni göstermeliyiz. Bu araçlar hızlı ve etkili olabilir, fakat unutmayalım ki  etik süzgeçleri yok. Güven filtresi hala bizde. Veri arttıkça, doğruya ulaşma sorumluluğu bize düşüyor.

İK uzmanları olarak bizler, %41.52’lik bu hata oranını sadece bir istatistik olarak göremeyiz, görmemeliyiz. İster iç iletişimde, ister insan kaynakları süreçlerinde ya da liderlik kararlarında olsun, teknolojiyi akıllıca kullanmak ancak insanı merkeze alarak mümkün. Yanlış yönlendiren bir veri, bir adayın kariyerini, bir çalışanın güvenini, bir liderin kararını etkileyebilir. Bu araçları kullanırken yön duygumuzu kaybetmemek, etik pusulamızı her zaman açık tutmak zorundayız.”

SON HABERLER

Liderlik anlayışı değişiyor: Performanstan insani liderliğe

2026’ya girerken artan belirsizlik, küçülen ekipler ve ağırlaşan iş yükleri, liderliği performans ölçen bir rolden çıkarıp güven inşa eden, insan odaklı bir sorumluluğa dönüştürüyor. Konunun uzmanlarıyla 2026’da liderleri nasıl bir tablonun beklediğini konuştuk.

Lider Profili, Belirsizliği Yönetebilenlerden Oluşacak

2026'da öne çıkacak lider profili, yalnızca hedef koyan ve performans ölçen değil, belirsizliği yönetebilen, açık iletişim kuran ve ekipleriyle bağ kurabilen yöneticilerden oluşacak.

Dönüşümü Çalışanlarıyla Birlikte Yönetenler Başaracak

Gilda&Partners Consulting Kurucusu Jilda Bal: "Teknolojik ilerlemenin kalıcılığı, insan faktörüne yapılan yatırımla ölçülür. 2026'da başarılı olacak şirketler, yalnızca yapay zekâyı entegre edenler değil, bu dönüşümü çalışanlarıyla birlikte yönetenler olacak."