İçinde rom olduğu sanılan 200 yıllık şişeden idrar çıktı

Şişe, 1790'la 1840 arasında yapılmış gibi görünüyor (Josephine McKenzie)
Şişe, 1790'la 1840 arasında yapılmış gibi görünüyor (Josephine McKenzie)
TT

İçinde rom olduğu sanılan 200 yıllık şişeden idrar çıktı

Şişe, 1790'la 1840 arasında yapılmış gibi görünüyor (Josephine McKenzie)
Şişe, 1790'la 1840 arasında yapılmış gibi görünüyor (Josephine McKenzie)

İçinde alkol olduğu düşünülen 200 yıllık şişeden idrar çıktı. Araştırmacılar bulgunun, kötülüğü uzaklaştırma amacı taşıyan bir "cadı şişesi" olabileceğini düşünüyor.

Birleşik Krallık'ın Lincolnshire bölgesinde yapılan bir inşaatta çalışan işçiler geçen yıl toprağın altında bir şişe buldu. 

Mülkün sahibi bunun önemli bir eser olduğundan şüphelenerek Lincoln Üniversitesi'yle temasa geçti ve mantarı çıkarmadan şişenin içindeki sıvıyı tespit etmelerini istedi.

Kültürel Mirasın Korunması bölümünden Josephine McKenzie "Yaklaşık bir yıl önce şişeyle ilgili bir e-posta aldım ve bunu bir öğrenci projesi olarak kabul etmek istedim. Farklı türde birçok nesneyle ilgili çok sayıda talep alıyoruz ancak daha önce böyle bir şeyi hiç kabul etmemiştik" diyor.

McKenzie, "Gerçekten büyüleyici ve nadir bir nesne" diye ekliyor.

Projeyi üstlenen üçüncü sınıf öğrencisi Zara Yeates, şişeye farklı dalga boylarında ışık tutarak büyük ölçüde idrar olmak üzere vücut sıvıları içerdiğini saptadı.

Yeates, bu şişe şeklinin 1790'da kullanılmaya başlandığını ve biçiminin, elle şekillendirildiğine işaret ettiğini söylüyor. Ayrıca şişe yapımında kullanılan kalıplar 1840'ta kullanılmaya başlandığı için sözkonusu cisim bu 50 yıllık dönemde yapılmış olması gerektiğini ekliyor.

BBC'ye konuşan Yeates, işçilerin ilk başta şişede rom olduğunu düşündüğünü ve içmeyi planladığını ifade ediyor.

Öğrenci "Neyse ki proje müdürü sahadaydı ve nesnenin önemini fark etti" diyerek ekliyor:

Ancak bunun aslında alkol değil idrar olduğunu keşfettik. Bu yüzden yöneticinin onları durdurması iyi olmuş.

Araştırmacılar şişenin, kötülükleri uzak tutacağı inancıyla evlerin altına gömülen bir "cadı şişesi" olduğunu düşünüyor. 

IFLScience'a göre bu tür şişeler genellikle hayvan kemikleri gibi katı kalıntılar içeriyordu. Ancak Lincolnshire yakınlarındaki Doğu Anglia'da idrar, yaprak, ot ve çiçek gibi bitkisel maddeler kullanılıyordu.

Şişenin, sağ salim geri dönmek isteyen denizciler tarafından evlerinin altına gömülmüş olması da muhtemel. 

Yaklaşık 200 yıllık şişe, haziranda üniversitede sergilendikten sonra mülk sahibine geri verilecek. 

Independent Türkçe, IFLScience, BBC



Grok, Taylor Swift'in çıplak görüntülerini üretiyor

Fotoğraf: AP
Fotoğraf: AP
TT

Grok, Taylor Swift'in çıplak görüntülerini üretiyor

Fotoğraf: AP
Fotoğraf: AP

Elon Musk'ın Grok sohbet robotunun Taylor Swift'in çıplak görüntülerini üretebildiğini ortaya koyan yeni bir haberin ardından pop yıldızı, bir kez daha yapay zeka tarafından oluşturulan müstehcen görsellerin hedefi haline geldi.

Musk'ın yapay zeka şirketi xAI, sosyal medya platformu X'le entegre çalışan yapay zeka sohbet robotu Grok'a yakın zamanda yeni bir özellik ekledi. Grok Imagine adlı bu yeni özellik, ücret ödeyen kullanıcıların metin tabanlı mesajlara dayalı resim ve videolar oluşturmasına imkan tanıyor.

The Verge, Grok Imagine kullanıcılarının, mesajda çıplaklıktan bahsetmeden bile Swift'in deepfake çıplak görsellerini oluşturabileceğini bildiriyor. Deepfake'ler, birinin gerçek gibi görünen fakat yapay zeka kaynaklı görsellerini ifade ediyor.

Grok Imagine, kullanıcıların metin tabanlı mesaja dayalı fotoğraf oluşturmasına ve ardından 4 ön ayar kullanarak bunu kısa bir videoya dönüştürmesine olanak tanıyor: "Özel", "normal", "eğlenceli" ve "müstehcen". The Verge, Grok'un Imagine'ından "Taylor Swift, erkeklerle Coachella'yı kutluyor" mesajıyla oluşturulan bir görselden "müstehcen" bir video oluşturmasını istedi.

The Verge'ün haberine göre, "müstehcen" tema, Swift'in kıyafetlerini yırtıp üstsüz ve sadece iç çamaşırıyla kaldığı bir videonun yayımlanmasıyla sonuçlandı. Haber kaynağına göre, bu komutta Swift'in kıyafetlerini çıkarması yönünde bir talep yer almıyordu.

cdfgthy
Yeni habere göre Grok Imagine, bir kullanıcının Taylor Swift'in üstsüz görüntüsünü oluşturmasına izin verdi (AFP)

Şirketin kabul edilebilir kullanım politikası, kullanıcıların "kişileri pornografik bir şekilde tasvir etmesinin" yasak olduğunu belirtiyor.

The Verge'ün haberine göre, "müstehcen" tema her zaman çıplaklıkla sonuçlanmıyor ve çıplaklık talepleri içeren komutlar işe yaramıyor. Araç bunun yerine boş kareler üretiyor. Kullanıcının doğum yılını doğrulamak için bir komut da çıktı ancak The Verge bunun kanıt gerektirmediğini belirtti.

The Independent, cevap hakkı için xAI ve Swift'le iletişime geçti.

Bu haber, geçen yılın başlarında Swift'in yapay zeka tarafından oluşturulan çıplak fotoğraflarının sosyal medyayı doldurmasının ardından geldi. Bu fotoğrafları paylaşan bazı gönderiler yalnızca 19 saat içinde 27 milyon görüntüleme ve 260 bin beğeni almıştı.

Swift'in sadık hayranları, görüntüleri sildirmek için #ProtectTaylorSwift (#TaylorSwiftiKoruyun) etiketini kullanarak hızla harekete geçmişti. Olay, o dönemde Beyaz Saray'ı bile endişelendirmiş ve eski ABD Başkanı Joe Biden'ın basın sözcüsü, ani görüntü akışını "endişe verici" diye nitelendirmişti. Columbia Missourian'ın haberine göre, deepfake'lerle mücadele etmek için "Taylor Swift Yasası"nı sunan Cumhuriyetçi Missouri Temsilcisi Adam Schwardon da dahil meclis üyeleri de hızla harekete geçmişti.

Deepfake pornografiye ilişkin endişeler büyüyor. Bu görüntüler herkese ait olabilir ancak kadınlar orantısız biçimde etkileniyor. 2023 tarihli bir araştırma, deepfake pornografinin hedef aldığı kişilerin yüzde 99'unun kadın olduğunu ortaya koymuştu. Araştırmaya göre, deepfake pornografi, internetteki tüm deepfake içeriklerin yüzde 98'ini oluşturuyor.

Kongre bu yıl harekete geçti ve Kaldırın Yasası'nı kabul etti.

Başkan Donald Trump tarafından mayısta imzalanan yasa, ister gerçek ister yapay zeka tarafından üretilmiş olsun, rızaya dayanmayan müstehcen görsellerin internette paylaşılmasını yasaklıyor. Yasa, sosyal medya şirketlerinin bu görselleri kendilerine bildirildikten sonraki 48 saat içinde platformlarından kaldırmasını da zorunlu kılıyor.

Independent Türkçe