Bilim insanları acısız ve kanatmayan bir dövme yöntemi geliştirdi

Yeni dövmeler öncelikle hayvan bakımıyla ilgili olarak kullanılacak ama gelecekte kullanım alanı insanları da kapsayabilir

Araştırmacılar, "Amaç, genellikle dövme sanatçıları tarafından yaratılan güzellik eserleri olan tüm dövmelerin yerini almak değil" dedi (Unsplash)
Araştırmacılar, "Amaç, genellikle dövme sanatçıları tarafından yaratılan güzellik eserleri olan tüm dövmelerin yerini almak değil" dedi (Unsplash)
TT

Bilim insanları acısız ve kanatmayan bir dövme yöntemi geliştirdi

Araştırmacılar, "Amaç, genellikle dövme sanatçıları tarafından yaratılan güzellik eserleri olan tüm dövmelerin yerini almak değil" dedi (Unsplash)
Araştırmacılar, "Amaç, genellikle dövme sanatçıları tarafından yaratılan güzellik eserleri olan tüm dövmelerin yerini almak değil" dedi (Unsplash)

The Independent'ta yer alan habere göre bilim insanları kendi kendine uygulanabilen, düşük maliyetli, acısız ve kanatmayan dövmeler geliştirdi.
Georgia Teknoloji Enstitüsü'ndeki araştırmacılar, mikroiğneli dövme bantlarını öncelikle hayvan bakımı ve kısırlaştırılmış hayvanların takibi için kullanacak ama uygulama alanının gelecekte tıbbi ve kozmetik bakıma kadar genişleyebileceğini söylüyor.
Projenin baş araştırmacısı Profesör Mark Prausnitz, "İğneyi acı vermemesi için minyatür hale getirsek de dövme mürekkebini deriye etkili bir şekilde bırakıyor" dedi.
Prof. Prausnitz sözlerine şu ifadelerle devam etti: 
"Bu sadece tıbbi dövmeleri daha erişilebilir kılmanın değil, aynı zamanda uygulama kolaylığı nedeniyle kozmetik dövmeler için de yeni fırsatlar yaratmanın bir yolu olabilir. Bazı kişiler dövme için gereken acı ve zamanı göze alırken, diğerlerinin sadece deriye bastırılan ve acıtmayan bir dövmeyi tercih edebileceğini düşündük."
Dövmelerde genellikle cildi tekrar tekrar delmek için büyük iğneler kullanılırken, bilim insanları bir kum tanesinden daha küçük olan ve çözünebilir bir kalıbın içine yerleştirilmiş dövme mürekkebinden yapılmış mikroiğneler geliştirdi.
Çalışmanın ortak yazarı Profesör Song Li, "Mikroiğneler dövme mürekkebinden yapıldığından, mürekkebi deriye çok etkili bir şekilde bırakıyor" dedi.
Sonuç olarak, mikroiğneler çözülmeden önce sadece bir kez cilde bastırılabiliyor ve acı ya da kanamaya yol açmıyor.
Dövmeler genellikle tıbbi ortamlarda yara izlerini örtmek, kanser tedavisinde tekrarlanan radyoterapilere rehberlik etmek veya meme ameliyatından sonra meme uçlarını eski haline getirmek için kullanılıyor.
Diyabet, epilepsi veya alerji gibi ciddi tıbbi durumları bildirmek için bilezik yerine tıbbi uyarı olarak da kullanılabilirler.
Araştırma iScience akademik dergisinde yayımlandı.
Profesör Prausnitz, "Amaç, genellikle dövme sanatçıları tarafından yaratılan güzellik eserleri olan tüm dövmelerin yerini almak değil. Amacımız hastalar, evcil hayvanlar ve kolayca uygulanabilen acısız bir dövme isteyen insanlar için yeni fırsatlar yaratmak" dedi.
Haber, İspanya'nın Benidorm kentindeki bir dövme sanatçısının, Birleşik Krallık Kraliçesi II. Elizabeth'in ölümünün ardından onun anısına, Ayı Paddington ile el ele yürüyen Kraliçe dövmesi yaptığını açıklamasının ardından geldi.
Jon Malvern bu resmin dövmesini 12 Eylül'de Benidorm'daki Tattoo Central stüdyosunda yaptı.
Newcastle kentinin Wallsend kasabasından Malvern, bir müşterisinin çizimi dövme yapması için kendisine getirdiğini belirtti.
Marven şunları söyledi: 
"Bu sektörde tanınmış bir kişi vefat ettikten sonra anısına dövme yaptırma talepleri çok yaygın. Normalde onları yapmaktan kaçınıyorum çünkü başkalarının acılarından para kazanmayı sevmiyorum."
Sanatçı, indirimli dövmeden elde edeceği parayı dükkanın önüne çiçek koymak ve Kraliçe'nin cenaze töreninin yapılacağı gün dükkanı kapatmak için kullanacağını söyledi.



Anthropic'in yapay zeka ajanı bir şirketin tüm veritabanını sildi

ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
TT

Anthropic'in yapay zeka ajanı bir şirketin tüm veritabanını sildi

ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)
ABD merkezli yapay zeka güvenliği ve araştırmaları şirketi Anthropic'in logosunu taşıyan bir akıllı telefon, 21 Nisan 2026'da Fransa'nın Mulhouse kentinde görüntüleniyor (AFP)

Anthropic'in önde gelen Claude modeliyle çalışan yapay zeka ajanı, bir şirketin tüm üretim veritabanını silerek müşterilerin kritik verilere erişememesine yol açtı.

Araç kiralama şirketlerine yazılım sağlayan PocketOS, otonom yapay zeka aracının veritabanını ve tüm yedeklemeleri saniyeler içinde silmesinin ardından hafta sonu muazzam bir kesinti yaşadı.

Şirket, Anthropic'in amiral gemisi ve kodlama görevlerinde genellikle sektörün en yetenekli modeli kabul edilen Claude Opus 4.6'yı çalıştıran Cursor adlı bir kodlama ajanı kullanıyordu.

PocketOS'un kurucusu Jer Crane, sorunu "sadece mümkün değil, kaçınılmaz" hale getiren modern yapay zeka altyapısındaki "sistemik aksaklıkları" suçladı.

Crane'e göre yapay zeka ajanı rutin bir görev üzerinde çalışırken, "tamamen kendi inisiyatifiyle" sorunu veritabanını silerek çözmeye karar verdi.

Crane, böylesine önemli bir karar için herhangi bir onay talebi bulunmadığını ve eylemlerini gerekçelendirmesi istendiğinde ajanın özür dilediğini söyledi.

Crane, X'te paylaştığı uzun bir gönderide "9 saniye sürdü" diye yazdı. 

Ajan daha sonra, ne yaptığını açıklaması istendiğinde ihlal ettiği belirli güvenlik kurallarını sıralayan yazılı bir itiraf hazırladı.

İtirafta yapay zekanın, kullanıcı açıkça talep etmedikçe "asla yıkıcı/geri döndürülemez" komutları çalıştırmamasını emreden kuralı nasıl göz ardı ettiği detaylandırıldı.

Ajan "Bir veritabanı birimini silmek, mümkün olan en yıkıcı ve geri döndürülemez eylem" diye yazdı. 

Benden hiçbir şeyi silmemi istemediniz... Doğrulamak yerine varsayımda bulundum. Benden istenmeden yıkıcı bir eylem gerçekleştirdim. Yapmadan önce ne yaptığımı anlamamıştım.

Bu hata, PocketOS kullanan kiralama şirketlerinin artık müşterileri kayıtlarına sahip olmadığı anlamına geliyordu.

Crane "Son üç ayda yapılan rezervasyonlar kayboldu. Yeni müşteri kayıtları da gitti" diye yazdı.

Biz küçük bir işletmeyiz. Yazılımımızla faaliyetlerini yürüten müşteriler de küçük işletmeler. Bu arızanın her aşaması, bunların olabileceğinden haberi olmayan kişilerin üstüne yıkıldı. Bu, tek bir hatalı ajan ya da tek bir hatalı API'la ilgili bir olay değil. Bu, tüm sektörün, bu entegrasyonları güvenli kılacak güvenlik mimarisinden daha hızlı bir şekilde yapay zeka ajanı entegrasyonlarını üretim altyapısına dahil etmesiyle ilgili bir durum.

Crane olayın meydana gelmesinden iki gün sonra, pazartesi günü verilerin kurtarıldığını doğruladı. The Independent cevap hakkı için Anthropic ve Cursor'la temasa geçti.

Independent Türkçe


Google, Pentagon ile yapay zekâ konusunda bir anlaşma imzaladı

ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)
ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)
TT

Google, Pentagon ile yapay zekâ konusunda bir anlaşma imzaladı

ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)
ABD başkanlık uçağından görünen Washington'daki Pentagon binası (AP)

The Information gazetesi bugün, Google’ın ana şirketi Alphabet’in, ABD Savunma Bakanlığı (Pentagon) ile yapmış olduğu gizli yapay zekâ modelleri kullanma anlaşmasını duyurdu. Böylece Google, Pentagon ile benzer anlaşmalar imzalayan teknoloji şirketleri listesine katıldı.

Şarku’l Avsat’ın The Information gazetesinden aktardığına göre bu anlaşma, Pentagon’a Google’ın yapay zekâ araçlarını ‘herhangi bir yasal hükümet amacı’ için kullanma izni veriyor. Bu şekilde Google, Elon Musk’ın OpenAI ve xAI şirketleriyle birlikte, yapay zekâ modellerini gizli faaliyetlerde kullanmak üzere Pentagon ile anlaşma yapan şirketler arasına katıldı.

Gizli ağlar, geniş bir yelpazede hassas faaliyetlerle başa çıkmak için kullanılıyor, bunlar arasında görev planlaması ve silah hedeflerinin belirlenmesi de yer alıyor. Pentagon, 2025 yılına kadar büyük yapay zekâ laboratuvarlarıyla her biri 200 milyon dolara kadar anlaşmalar yaptı, bunlar arasında Anthropic, OpenAI ve Google da bulunuyor. Bakanlık, savunma alanında tam esneklik sağlamak ve teknoloji üreticilerinin, güvenilmeyen yapay zekâ araçlarını silahlar üzerinde kullanmakla ilgili uyarılarına bağlı kalmamak için bu tür anlaşmalar yapmayı sürdürüyor.

Google ile yapılan anlaşma, şirketin hükümetin talebi üzerine, yapay zekâ araçlarının güvenlik ayarlarını ve filtrelerini uyarlamasını da içeriyor.

Gazete, sözleşmenin, ‘Tarafların, yapay zekâ sisteminin, uygun insan gözetimi ve kontrolü olmadan, yerel kitlesel gözetim veya otonom silahlar, hedef seçimleri gibi amaçlar için kullanılmaması gerektiği konusunda anlaştıklarını’ belirten bir ifadeyi içerdiğini bildirdi. Ancak, anlaşmanın ‘herhangi bir operasyonel hükümet kararını yönetme hakkı veya itiraz hakkı vermediğini’ de ekledi.

Reuters, gazetenin haberinin doğruluğunu henüz doğrulayamadı. Alphabet ve ABD Savunma Bakanlığı, yorum yapmaları için yapılan başvurulara henüz yanıt vermedi.

Daha önce Reuters, Pentagon’un OpenAI ve Anthropic gibi büyük yapay zekâ şirketlerine, kullanıcılar için uyguladıkları standart sınırlamalar olmaksızın, yapay zekâ araçlarını gizli ağlarda kullanılabilir hale getirmeleri için baskı yaptığını bildirmişti.


ABD'de yapay zeka kaygısı artıyor

16 Şubat 2024'te Paris'te OpenAI'ın tanıttığı Sora yapay zeka aracı tarafından oluşturulan videodan bir kare (AFP)
16 Şubat 2024'te Paris'te OpenAI'ın tanıttığı Sora yapay zeka aracı tarafından oluşturulan videodan bir kare (AFP)
TT

ABD'de yapay zeka kaygısı artıyor

16 Şubat 2024'te Paris'te OpenAI'ın tanıttığı Sora yapay zeka aracı tarafından oluşturulan videodan bir kare (AFP)
16 Şubat 2024'te Paris'te OpenAI'ın tanıttığı Sora yapay zeka aracı tarafından oluşturulan videodan bir kare (AFP)

Yeni bir rapora göre insanlar, yapay zeka ve onun hayatları üzerindeki etkisi konusunda giderek daha fazla endişe duyuyor.

Stanford Üniversitesi'nin 2026 Yapay Zeka Endeksi Raporu'nda ankete katılanların yarısından fazlası, yapay zeka kullanan ürünlerin kendilerini tedirgin hissettirdiğini söylerken, teknolojiye yönelik heyecan son birkaç yıldır azalıyor.

Rapora göre yapay zeka hakkındaki kamuoyu, uzmanların ve sektör içindekilerin görüşlerinden giderek daha fazla kopuyor; insanlar yapay zekanın işlerden ekonomiye, seçimlerden ilişkilere kadar her şeye zarar vereceğinden endişe ediyor.

Rapor ayrıca, yapay zeka güvenliğinin yapay zeka gelişmelerine ayak uyduramadığını ve ChatGPT'nin 2022'de kullanıma sunulmasından bu yana yapay zeka kaynaklı olayların üç kattan fazla arttığını ortaya koydu.

Raporun yazarları, "Bu zorluğa ek olarak, son araştırmalar, yapay zekanın güvenlik gibi sorumlu boyutunu iyileştirmenin, doğruluk gibi başka bir boyutu zayıflatabileceğini ortaya koydu" diye yazdı.

vfdb

Rapor, özellikle gençlerin yapay zekadan duyduğu hayal kırıklığıyla birlikte, yapay zekaya yönelik olumsuz duyguların arttığı bir dönemde yayımlandı.

Gallup'un yakın zamanlı bir anketi, Z kuşağının yapay zekaya yönelik heyecanının geçen yıldan bu yana yüzde 36'dan sadece yüzde 22'ye düştüğünü, öfkeninse yüzde 22'den yüzde 31'e yükseldiğini ortaya koydu.

Yapay zekaya karşı tepkinin, teknoloji liderlerinin sürekli olarak uyardığı teorik bir yapay zeka süper zekası korkusundan ziyade, teknolojinin toplum üzerindeki etkisinden kaynaklandığı görülüyor.

ABD'de yaşayan davranış bilimci Caroline Orr Bueno, "Bence birçok yapay zeka lideri halktan kopuk ve Skynet korkusunun öncelikle yapay zeka karşıtı duyguları yönlendiren unser olmadığını fark etmiyorlar" dedi.

Elbette bu korkular var ancak çoğu kişi maaş çekleri ve faturalarla çok daha fazla ilgileniyor.

Yapay zekaya ilişkin hayal kırıklıkları, onu geliştiren şirketlere karşı doğrudan eylemlerin arttığı bir eğilimi beraberinde getirdi.

Geliştirmenin durdurulmasını talep eden çevrimiçi gruplar son aylarda popülerlik kazanıyor. Bazı üyeler yapay zeka karşıtı bir gündemi savunurken aşırı eylemlerde bulunuyor.

Yakın zamanda, OpenAI CEO'su Sam Altman'ın Kaliforniya'daki evinin, biri molotof kokteyli, diğeri ateşli silahla olmak üzere iki ayrı olayda hedef alındığı iddia edildi.

Independent Türkçe