Yapay zeka büyük kurumlara ve şirketlere sızıyor

Yeni tasarımlar, mahremiyet ve veri gizliliğini sağlamak için hassas bir denge gerektiriyor.
Yeni tasarımlar, mahremiyet ve veri gizliliğini sağlamak için hassas bir denge gerektiriyor.
TT

Yapay zeka büyük kurumlara ve şirketlere sızıyor

Yeni tasarımlar, mahremiyet ve veri gizliliğini sağlamak için hassas bir denge gerektiriyor.
Yeni tasarımlar, mahremiyet ve veri gizliliğini sağlamak için hassas bir denge gerektiriyor.

Morgan Stanley'de çalışan binlerce finans danışmanın bu yılın ortasında yapay zeka ile tasarlanmış yeni bir iletişim aracına sahip olması bekleniyor.

600'e yakın çalışanın kullandığı araç, "Apple, IBM ve Microsoft'un yatırım senaryolarını karşılaştırabilir misiniz?" ve “Bu vakaların her biri için riskler nelerdir?” gibi sorulara yanıt veriyor. Danışman, örneğin müşterinin değerli bir tablosu varsa ne yapılabileceğini de sorabiliyor ve böylece bilgi aracı kendisine izleyebileceği adımların bir listesinin yanı sıra şirket içinden yardımcı olacak bir uzmanın adını veriyor.

Analiz ve yenilik

Morgan Stanley'nin Servet Yönetimi bölümünün analitik, veri ve inovasyon başkanı Jeff McMillan açıklamasında "Yapmaya çalıştığımız şey, her müşteriyi veya finansal danışmanı herhangi bir konuda gerçek zamanlı olarak daha akıllı, daha bilgili bir uzman haline getirmek" dedi.

Uzmanlar, yapay zekanın zaman içinde yaratacağından daha fazla işi yok edip etmeyeceği konusunda farklı görüşlerde olabilir. Ancak kesin olan, yapay zekanın, çoğu çalışanın bilgi alanlarında çalışma şeklini değiştirecek olması. Zira yapay zeka, ihtiyaç duydukları becerilere ve çoğu şirketteki iş ihtiyacına göre ayarlamalar yapacak. Günümüzde girişimciler, çalışanları yeni yapay zeka araçlarının orta vadede yaratabileceği engellere hazırlarken teknolojiden nasıl faydalanacaklarını da bilmek durumundalar.

Yavaş hareket etmek, geçmişte internetten tam olarak veya doğru hızda yararlanmayan şirketlerde olduğu gibi, verimlilik, müşteri hizmetleri ve son olarak rekabet gücü açısından kazanç kaybına neden olabilir.

Ancak aynı zamanda girişimciler, yapay zekanın kötü şöhretli hataları ve önyargılarına karşı dikkatli olmalı ve çalışanlar için nelere yol açabileceğini dikkatlice düşünmeli. Finans şirketlerinde yapay zekanın yeteneklerini analiz etmede uzmanlaşmış, gelişmekte olan Evident şirketinin kurucusu ve CEO’su olan Alexandra Mousavizadeh, konuyla ilgili olarak “Çalışma alanınız ne olursa olsun, şirketinizin ağırlıklı olarak yapay zekaya güvenen şirketlerden biri olduğunu düşünmelisiniz” dedi.

Morgan Stanley'nin danışmanlar aracına güç veren yapay zeka türü ‘üretken yapay zeka’ olarak biliniyor ve analiz ettiği bilgileri kullanarak metin, resim, ses ve video gibi içerikler oluşturabiliyor.

Şarku’l Avsat’ın edindiği bilgilere göre söz konusu yapay zeka, soruları yanıtlamanın yanı sıra e-postalar yazmak, slayt gösterileri yapmak ve uzun belgeleri özetlemek gibi sayısız başka şekilde kullanılabiliyor. Ön araştırmalar, üretken yapay zeka kullanılarak geliştirilen araçların birçok görevi hızlandırabileceğini ve çalışan üretkenliğini artırabileceğini gösteriyor.

Çalışanların performansının yükseltilmesi

Örneğin MIT ve Stanford Üniversitesi'nden araştırmacılar, kendilerine yanıt sağlayan bir yapay zeka aracıyla donatılmış müşteri destek personelinin her saat yüzde 14 daha fazla müşteri sorunu çözdüğünü ortaya koydu.

Ancak bu aracın kazanımları eşit olarak dağıtılmadı. Araç, yetenekli meslektaşlarının uygulamalarını etkili bir şekilde algıladığı ve yaydığı için deneyimsiz çalışanlar üretkenliklerinde önemli sıçramalar yaptı. Massachusetts Institute of Technology'nin yakın tarihli bir araştırması, yapay zekanın, başlangıçta işlerinde vasıfsız olan işçilerin kendileriyle daha vasıflı işçiler arasındaki farkı azalttığını ve yapay zekayı kullandıklarında daha kısa sürede daha iyi performans gösterdiğini buldu.

Exponential View araştırma grubunun başkanı Azim Azhar bu çalışmaların sonuçlarının şu tek bir noktada birleştiğini söyledi:

"Bugün artık bir kişinin pozisyonunda performansı sayesinde elde ettiği kazanımlar azaldı çünkü (ChatGPT) kullanan genç çalışanlar ve yılların tecrübesine sahip olanlar kadar iyi performans gösteriyor."

Araştırma sahadaki uygulamaları içerecek şekilde genişlerse, bazı şirketleri daha genç çalışanlara yatırım yapmaya ve yıllardır çalışan daha pahalı çalışanları işten çıkarmaya teşvik edebilir.

Hatta bazı şirketler, yapay zeka araçlarının beklenen etkisine göre işe alım kararları vermeye bile başladı. IBM kısa süre önce, insan kaynakları gibi önümüzdeki birkaç yıl içinde yapay zekanın yerini alabilecek bazı pozisyonlarda işe alımı yavaşlattığını veya durdurduğunu açıkladı. PwC Global Tax & Legal Service CTO'su (Baş Teknoloji Sorumlusu) Pevek Sharma, yapay zekanın sağladığı hız ve kazanımların müşteri beklentilerini yükselttiğine belirtti. Sharma, ‘çalışanların iş gücü becerilerini yenilemeye ve yapay zekaya yönelik açık talebi karşılayacak kadar hızlı bir şekilde anlamalarını sağlamaya özen gösterilmesi gerektiğine’ dikkat çekti.

PwC, önümüzdeki birkaç ay içinde tüm hukuk danışmanlarına yapay zeka destekli bir konuşma aracı sunmak için avukatlar için çeşitli araçlar geliştiren bir AI girişimi olan Harvey ile birlikte çalışıyor. Şirket ayrıca teknolojisini vergi ve insan kaynakları uzmanlarını da içerecek şekilde genişletmeyi planlıyor.

Sharma, PwC'nin hedefinin, çalışanlarına şirketin deneyimlerinden elde edilen yanıtları sağlamanın ötesinde, nihayetinde müşteri verilerinin de analiz edilmesine bağlı olacak yeni içgörüler üretmeye geçtiğini açıkladı. Yapay zeka nihayet örneğin birleşme fikrini düşünen iki şirket arasındaki tüm sözleşmeleri kaydedebilir, örneğin PwC uzmanlarının belirli türdeki yetkileri ve riskleri araştırmasına olanak tanır.

Genel olarak büyük şirketlerin, teknolojiyi işlerine uyarlayabilen yapay zeka konusunda bilgili teknik personele yatırım yapması gerekiyor. Mousavizadeh, birçok şirketin ChatGBT'yi kullanamayacağını çünkü onu çalıştırmak için temel yapı taşlarına, yani içerik ve veri yönetimine sahip olmadıklarını vurguladı.

Söz konusu şirketlerin ayrıca teknik uzmanlık gerektirmeyen rollerde profesyonelleri işe alması veya eğitmesi gerekiyor. McMillan ve diğer yöneticiler, yapay zeka platformlarının, kullanıcıların en iyi sonuçları almasını sağlamak için bilgi ve bilgi kaynaklarının ince ayarını yapmaktan sorumlu insanların yardımıyla sürekli ‘ayarlanması’ gerektiğini söylüyor. Bu ayarlama, yeni bir mühendis grubuna olan ihtiyaca işaret ediyor.

Özellik ve gizlilik

Morgan Stanley ve PwC, içeriden öğrenilen materyallerden yararlanan yapay zeka destekli konuşma araçlarının kendi sürümlerini geliştiren şirketler arasında yer alıyor. Mahremiyet, gizlilik, doğruluk ve fikri mülkiyet haklarıyla ilgili endişeler, birçok şirketin çalışanlarının ChatGPT ve diğer yapay zeka araçlarına erişimini engelleyerek Samsung'a olanlardan kaçınmak istiyor. Çünkü raporlar, yarı iletken bölümündeki çalışanların GPT Sohbeti kullanarak bir toplantıdan hassas kod ve notlar paylaştığını gösterdi. Şirket yöneticileri, bazı yapay zeka araçlarında yerleşik olarak bulunan sık sık yapılan hatalar ve önyargılar konusunda da endişeleniyor.

Ancak, kullanıcıların soruları veya komutları sade bir dille yazmasına izin veren üretici yapay zeka araçlarından yararlanma fırsatı kısmen görevi bu araçların şirketin çalışma şeklini nasıl değiştirebileceğini göstermek olan daha geniş bir teknik olmayan çalışan grubunu bir araya getirmeyi gerektiriyor. Azhar açıklamasını "Çalışanlarınızın, kendi becerilerini ve şirketinizin dahili becerilerini geliştirmeye başlayabilmeleri için bu araçları gerçekten düzenli bir şekilde kullanmaları gerekiyor" diyerek sonlandırdı.



Güney Afrika'da yapay zeka tasarısının yazarı yapay zeka çıktı

Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)
Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)
TT

Güney Afrika'da yapay zeka tasarısının yazarı yapay zeka çıktı

Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)
Güney Afrika İletişim ve Dijital Teknolojiler Bakanı Solly Malatsi (sağda) konuşuyor (AFP)

Güney Afrika, ulusal yapay zeka politika taslağını; metindeki bazı kuralların yapay zeka tarafından üretildiğinin ve mevcut olmayan uydurma kaynaklara atıfta bulunulduğunun tespit edilmesi üzerine geri çekme kararı aldı.

İletişim Bakanı Solly Malatsi, taslak politikanın 67 akademik alıntısından en az 6'sının, var olmayan dergi makalelerine atıfta bulunan yapay zeka halüsinasyonları olduğunu tespit ettikten sonra taslağı geri çekti.

Malatsi, "En mantıklı açıklama, yapay zeka tarafından oluşturulan alıntıların uygun doğrulama yapılmadan dahil edilmiş olması. Bu asla olmamalıydı" dedi.

X'teki gönderisinde, "Bu başarısızlık sadece teknik bir sorun değil, taslak politikanın bütünlüğünü ve güvenilirliğini tehlikeye atmıştır" diye yazdı.

Taslak politika, kamuoyunun görüşüne açılmış, ülkeyi yapay zeka inovasyonunda lider olarak konumlandırmayı ve yapay zeka kullanımındaki etik, sosyal ve ekonomik zorlukları ele almayı amaçlamıştı.

Tasarı, ülkede yapay zeka kullanımını denetlemek üzere yeni kurumlar kurma planlarını ortaya koymuştu; bunlar arasında ulusal bir yapay zeka komisyonu, bir yapay zeka etik kurulu ve bir yapay zeka düzenleme organı yer alıyor.

Taslak kurallar ayrıca ülkede yapay zeka altyapısının oluşturulmasında özel sektör işbirliğini teşvik etmek için vergi indirimi, hibe ve sübvansiyon planlarını da özetlemişti.

Taslağın, kamuoyu görüşüne yeniden sunulmadan önce revize edilmesi bekleniyor.

Konu, Güney Afrika'nın News24 haber sitesinin, belgenin 67 akademik alıntısından en az 6'sının mevcut olmadığını ancak referans verilen dergilerin gerçek olduğunu tespit etmesiyle ortaya çıktı.

South African Journal of Philosophy, AI & Society ve Journal of Ethics and Social Philosophy adlı akademik dergiler dahil dergilerin editörleri alıntı yapılan makalelerin sahte olduğunu bağımsız biçimde doğruladı.

İletişim Bakanı, politikanın hazırlanmasından sorumlu olanların bunun sonuçlarına katlanmak zorunda kalacağını söyledi.

X'te, "Bu kabul edilemez hata, yapay zekanın kullanımında insan gözetiminin neden kritik önem taşıdığını kanıtlıyor. Bu alçakgönüllülükle çıkardığımız bir ders" diye yazdı.

Bu, akademisyenlerle yöneticilerin araştırma ve taslak hazırlamak için üretken yapay zekayı kullanmasına ilişkin giderek büyüyen sorunu vurguluyor.

Nature adlı akademik dergide çıkan bir çalışma, 2025'te yayımlanan akademik makalelerin yüzde 2,5'inden fazlasının en az bir olası halüsinasyon alıntı içerdiğini, bu oranın 2024'te sadece yüzde 0,3 olduğunu ortaya koydu.

Bu, 2025'te yayımlanan 110 binden fazla makalenin, yapay zeka tarafından "halüsinasyon" olarak üretilmiş geçersiz referanslar içerdiği anlamına geliyor.

Bunlar, yapay zeka modellerinin verilerinin o alanda yetersiz olduğunu algıladığında ürettiği, kendinden emin ancak uydurma çıktılar.

OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi büyük dil modelleri, bir kelime dizisinde sıradaki en olası sözcüğü tahmin etmek için tasarlanmıştır, özellikle doğruluğunu kontrol etmek için değil.

Yani bir alanda veri eksikliği tespit ederse, yapay zeka modeli boşlukları mantıklı görünen ancak yanlış bilgilerle dolduruyor.

Bir yapay zeka modeli, eğitim verilerini kullanarak bir alıntının nasıl görüneceğini tahmin eder ve inanılır gibi görünen ancak gerçekte var olmayan bazı referanslar üretiyor.

Bu durum, özellikle akademisyenler ve yetkililer tarafından kullanıldığında, yapay zeka yanıtlarının dikkatli insan gözetimine duyulan ihtiyacın giderek arttığına işaret ediyor.

Independent Türkçe


Anthropic'in yapay zeka ajanı bir şirketin tüm veritabanını sildi

ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
TT

Anthropic'in yapay zeka ajanı bir şirketin tüm veritabanını sildi

ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)

Anthropic'in önde gelen Claude modeliyle çalışan yapay zeka ajanı, bir şirketin tüm üretim veritabanını silerek müşterilerin kritik verilere erişememesine yol açtı.

Araç kiralama şirketlerine yazılım sağlayan PocketOS, otonom yapay zeka aracının veritabanını ve tüm yedeklemeleri saniyeler içinde silmesinin ardından hafta sonu muazzam bir kesinti yaşadı.

Şirket, Anthropic'in amiral gemisi ve kodlama görevlerinde genellikle sektörün en yetenekli modeli kabul edilen Claude Opus 4.6'yı çalıştıran Cursor adlı bir kodlama ajanı kullanıyordu.

PocketOS'un kurucusu Jer Crane, sorunu "sadece mümkün değil, kaçınılmaz" hale getiren modern yapay zeka altyapısındaki "sistemik aksaklıkları" suçladı.

Crane'e göre yapay zeka ajanı rutin bir görev üzerinde çalışırken, "tamamen kendi inisiyatifiyle" sorunu veritabanını silerek çözmeye karar verdi.

Crane, böylesine önemli bir karar için herhangi bir onay talebi bulunmadığını ve eylemlerini gerekçelendirmesi istendiğinde ajanın özür dilediğini söyledi.

Crane, X'te paylaştığı uzun bir gönderide "9 saniye sürdü" diye yazdı. 

Ajan daha sonra, ne yaptığını açıklaması istendiğinde ihlal ettiği belirli güvenlik kurallarını sıralayan yazılı bir itiraf hazırladı.

İtirafta yapay zekanın, kullanıcı açıkça talep etmedikçe "asla yıkıcı/geri döndürülemez" komutları çalıştırmamasını emreden kuralı nasıl göz ardı ettiği detaylandırıldı.

Ajan "Bir veritabanı birimini silmek, mümkün olan en yıkıcı ve geri döndürülemez eylem" diye yazdı. 

Benden hiçbir şeyi silmemi istemediniz... Doğrulamak yerine varsayımda bulundum. Benden istenmeden yıkıcı bir eylem gerçekleştirdim. Yapmadan önce ne yaptığımı anlamamıştım.

Bu hata, PocketOS kullanan kiralama şirketlerinin artık müşterileri kayıtlarına sahip olmadığı anlamına geliyordu.

Crane "Son üç ayda yapılan rezervasyonlar kayboldu. Yeni müşteri kayıtları da gitti" diye yazdı.

Biz küçük bir işletmeyiz. Yazılımımızla faaliyetlerini yürüten müşteriler de küçük işletmeler. Bu arızanın her aşaması, bunların olabileceğinden haberi olmayan kişilerin üstüne yıkıldı. Bu, tek bir hatalı ajan ya da tek bir hatalı API'la ilgili bir olay değil. Bu, tüm sektörün, bu entegrasyonları güvenli kılacak güvenlik mimarisinden daha hızlı bir şekilde yapay zeka ajanı entegrasyonlarını üretim altyapısına dahil etmesiyle ilgili bir durum.

Crane olayın meydana gelmesinden iki gün sonra, pazartesi günü verilerin kurtarıldığını doğruladı. The Independent cevap hakkı için Anthropic ve Cursor'la temasa geçti.

Independent Türkçe


Google, Pentagon ile yapay zekâ konusunda bir anlaşma imzaladı

ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)
ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)
TT

Google, Pentagon ile yapay zekâ konusunda bir anlaşma imzaladı

ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)
ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)

The Information gazetesi bugün, Google’ın ana şirketi Alphabet’in, ABD Savunma Bakanlığı (Pentagon) ile yapmış olduğu gizli yapay zekâ modelleri kullanma anlaşmasını duyurdu. Böylece Google, Pentagon ile benzer anlaşmalar imzalayan teknoloji şirketleri listesine katıldı.

Şarku’l Avsat’ın The Information gazetesinden aktardığına göre bu anlaşma, Pentagon’a Google’ın yapay zekâ araçlarını ‘herhangi bir yasal hükümet amacı’ için kullanma izni veriyor. Bu şekilde Google, Elon Musk’ın OpenAI ve xAI şirketleriyle birlikte, yapay zekâ modellerini gizli faaliyetlerde kullanmak üzere Pentagon ile anlaşma yapan şirketler arasına katıldı.

Gizli ağlar, geniş bir yelpazede hassas faaliyetlerle başa çıkmak için kullanılıyor, bunlar arasında görev planlaması ve silah hedeflerinin belirlenmesi de yer alıyor. Pentagon, 2025 yılına kadar büyük yapay zekâ laboratuvarlarıyla her biri 200 milyon dolara kadar anlaşmalar yaptı, bunlar arasında Anthropic, OpenAI ve Google da bulunuyor. Bakanlık, savunma alanında tam esneklik sağlamak ve teknoloji üreticilerinin, güvenilmeyen yapay zekâ araçlarını silahlar üzerinde kullanmakla ilgili uyarılarına bağlı kalmamak için bu tür anlaşmalar yapmayı sürdürüyor.

Google ile yapılan anlaşma, şirketin hükümetin talebi üzerine, yapay zekâ araçlarının güvenlik ayarlarını ve filtrelerini uyarlamasını da içeriyor.

Gazete, sözleşmenin, ‘Tarafların, yapay zekâ sisteminin, uygun insan gözetimi ve kontrolü olmadan, yerel kitlesel gözetim veya otonom silahlar, hedef seçimleri gibi amaçlar için kullanılmaması gerektiği konusunda anlaştıklarını’ belirten bir ifadeyi içerdiğini bildirdi. Ancak, anlaşmanın ‘herhangi bir operasyonel hükümet kararını yönetme hakkı veya itiraz hakkı vermediğini’ de ekledi.

Reuters, gazetenin haberinin doğruluğunu henüz doğrulayamadı. Alphabet ve ABD Savunma Bakanlığı, yorum yapmaları için yapılan başvurulara henüz yanıt vermedi.

Daha önce Reuters, Pentagon’un OpenAI ve Anthropic gibi büyük yapay zekâ şirketlerine, kullanıcılar için uyguladıkları standart sınırlamalar olmaksızın, yapay zekâ araçlarını gizli ağlarda kullanılabilir hale getirmeleri için baskı yaptığını bildirmişti.