BUSINESS NEWS

Teknoloji ilerledikçe bilgiye ulaşmak kolaylaşsa da, bilgiye ne kadar güvenebileceğimiz belirsizleşiyor. Google’ın kısa süre önce tanıttığı Veo 3 modeliyle gündeme gelen hiper-gerçekçi video üretimi yaratıcılığı desteklese de, “deepfake” tehlikesini artırıyor. Gerçek ile kurgunun birbirine bu kadar yaklaştığı bir çağda, doğruluk payını ayırt etmek gittikçe zorlaşıyor.

Yapay Zeka %41.5 Oranında Yanıltıyor

NewsGuard’ın her ay yayımladığı “AI Misinformation Monitor” raporları, ChatGPT, DeepSeek gibi en yaygın kullanılan 11 yapay zeka sohbet robotunun analizlerini içeriyor. Bu çalışmalara göre modellerin %30.9’u yanlış bilgileri tekrar ederken, %10.6’sı sorulara yanıt veremiyor veya kaçamak yanıtlar sunuyor. Doğru bilgiyi sunma oranı ise %58.48. Toplamda %41.52’lik bir hata oranı, güncel veri erişimi olan bu araçların, bilgi doğruluğu açısından dikkatlE değerlendirilmesi gerektiğini gösteriyor. Bu sonuçlar, teknolojinin hızla geliştiği bir ortamda, doğruluk ve güvenlik sistemlerinin geride kaldığını ve bu nedenle teknoloji kullanımında daha dikkatli olunması gerektiğini ortaya koyuyor.

Özellikle kurumsal hayatta, bu tarz bilgi hataları önemli sonuçlar doğurabiliyor. Yanlış yorumlanan bir regülasyon özeti, hatalı hazırlanan bir rapor ya da doğruluğu teyit edilmemiş bir içerikle hazırlanan yönetim sunumu, stratejik kararlarda sapmalara yol açarken kurumsal itibar için risk oluşturabiliyor. Yapay zekanın sunduğu hız ve verimlilikten faydalanırken, doğrulama süreçleri geliştirmek artık her zamankinden daha fazla önem taşıyor.

Dijital dönüşümde güvenlik filtresi insan olmalı

Gilda&Partners kurucusu Jilda Bal, dijital dönüşümle yapay zekanın iş dünyasında hızla yaygınlaştığını ancak her yanıtın doğru, her içeriğin güvenilir olmadığını vurguluyor: “Artık hepimizin cebinde bir yapay zeka aracı var. Ancak yapay zekanın sunduğu her veriye sorgulamadan güvenmek mümkün değil. Genelde kararlar alırken nasıl birden fazla kaynaktan doğrulama yapıyorsak, yapay zeka sonuçları için de aynı özeni göstermeliyiz. Bu araçlar hızlı ve etkili olabilir, fakat unutmayalım ki  etik süzgeçleri yok. Güven filtresi hala bizde. Veri arttıkça, doğruya ulaşma sorumluluğu bize düşüyor.

İK uzmanları olarak bizler, %41.52’lik bu hata oranını sadece bir istatistik olarak göremeyiz, görmemeliyiz. İster iç iletişimde, ister insan kaynakları süreçlerinde ya da liderlik kararlarında olsun, teknolojiyi akıllıca kullanmak ancak insanı merkeze alarak mümkün. Yanlış yönlendiren bir veri, bir adayın kariyerini, bir çalışanın güvenini, bir liderin kararını etkileyebilir. Bu araçları kullanırken yön duygumuzu kaybetmemek, etik pusulamızı her zaman açık tutmak zorundayız.”

SON HABERLER

Petrolde yükseliş evden çalışmayı yeniden gündeme taşıdı

Yaşanan jeopolitik gelişmelerden kaynaklı, olası bir enerji krizi nedeniyle 'evden çalışma modeli' yeniden gündeme taşındı. Pandemi döneminde hayatımıza giren evden çalışma modeli, son dönemde birçok şirketin ofise dönüş çağrılarıyla geri plana itilmişti. Ancak yaşanan jeopolitik gelişmeler, bu tartışmayı farklı nedenler ve olası bir enerji krizi nedeniyle yeniden gündeme taşıdı.

Maltepe Üniversitesi’nde Kadınların Kariyer Yolculuğu Konuşuldu

Maltepe Üniversitesi İletişim Fakültesi, kadınların iş hayatındaki konumu ve bu alandaki yapısal eşitsizlikleri mercek altına alan dikkat çekici bir sunuma ev sahipliği yaptı. Gilda & Partners Kurucu Ortağı, üst düzey yönetici seçimi ve mentorluk danışmanlığı alanında uzman bir “talent hunter” olan Jilda Bal, İletişim Fakültesi ve Marmara Koleji öğrencileriyle buluştu.

Her Üç Çalışandan İkisi Tükenmişlik Yaşıyor

ManpowerGroup 2026 verileri, çalışanların yarısının yüksek stres altında olduğunu ve yüzde 60’ının mevcut rollerine rağmen aktif olarak yeni iş arayarak “Sessiz Arayış” dönemini başlattığını gösteriyor.