4 soruda OpenAI'ın "düşünebilen" yeni yapay zeka serisi

OpenAI'ın son modeli o1'in fiyatı, bazı kullanıcıların tepkisini çekiyor (Reuters)
OpenAI'ın son modeli o1'in fiyatı, bazı kullanıcıların tepkisini çekiyor (Reuters)
TT

4 soruda OpenAI'ın "düşünebilen" yeni yapay zeka serisi

OpenAI'ın son modeli o1'in fiyatı, bazı kullanıcıların tepkisini çekiyor (Reuters)
OpenAI'ın son modeli o1'in fiyatı, bazı kullanıcıların tepkisini çekiyor (Reuters)

OpenAI, "düşünme" becerisine sahip olduğunu öne sürdüğü yeni yapay zeka serisi o1'i dün (12 Eylül Perşembe) kullanıma sundu. 

Strawberry diye de bilinen yeni serinin o1-preview (ön izleme) ve o1-mini diye iki sürümü mevcut.

Model henüz sadece ChatGPT Plus ve Team kullanıcılarının yanı sıra 5. seviye API katmanına hak kazanan geliştiricilerin erişimine peyderpey açılıyor.

ChatGPT Enterprise ve Edu üyelerinin de gelecek haftadan itibaren araca erişebileceğini belirten şirket, ileride o1-miniyi bütün kullanıcılara ücretsiz sunmayı planlıyor. Fakat bunun için henüz bir tarih verilmedi.

Daha önceki modellerine 2,3,4 gibi isimler veren OpenAI, son serinin yepyeni becerilere sahip olması nedeniyle "sayacı sıfırladıklarını" ve bu nedenle o1 adını seçtiklerini belirtiyor.

Tabii bütün bunların bir bedeli var. Kullanımı mayısta çıkan öncülü GPT-4o'dan üç kat daha masraflı olan o1-preview'un geliştiricilere maliyeti 1 milyon girdi jetonu (token) başına 15 dolar, 1 milyon çıktı jetonu başına da 60 dolar.

Veri birimlerini ifade eden jetonlar, yapay zeka araçlarının büyük verileri parçalara ayırıp dili işlemesini sağlıyor. 1 milyon jeton yaklaşık 750 bin kelimeye denk geliyor. 

OpenAI, o1-mini versiyonun yüzde 80 daha ucuz olduğunu belirtiyor fakat bu sürüm diğeri kadar geniş bir bilgi yelpazesine sahip değil. 

Peki şirketin ön izleme veya bir ön sürüm olduğunu belirttiği o1, öncüllerinden farklı olarak neyi yapabiliyor, neyi yapamıyor ve insanlığın kendi bilişsel seviyesini geçen yapay zeka inşa etme çabasında nasıl bir adıma işaret ediyor?

1) Gerçekten düşünebiliyor mu?

Teknoloji sektöründeki en temel tartışmalardan biri, yapay zeka araçlarının becerilerini "düşünme" veya "muhakeme" gibi ifadelerle tanımlama etrafında dönüyor. 

Geniş dil modellerinin, devasa büyüklükte bilgi kümeleriyle eğitildiği ve sorgulara verdikleri cevaplarda bu veriler üzerinden olasılık temelli tahmin yürüttükleri göz önüne alınırsa, bazı uzmanların "düşünme" ifadesine itirazlarında haklılık payı var. 

Öte yandan bu araçlar insan beyni gibi akıl yürütme becerisine gittikçe daha fazla yaklaşıyor. 

OpenAI, o1 serisinin sorulara cevap vermeden önce daha uzun süre düşündüğünü ve vereceği yanıtların doğruluğunu kontrol ettiğini ifade ediyor.

Sisteme girilen soru karşısında "Düşünüyorum" gibi yanıtlar vermesi, gerçekten o sırada düşündüğü izlenimi yaratsa da o1'in insanlar gibi akıl yürüttüğünü söylemek mümkün değil. 

OpenAI'ın araştırma ekibinin lideri Jerry Tworek, yapay zeka modelinin düşünme biçimini insanlarınkiyle bir tutmadıklarını söylüyor. 

Arayüz ise yeni modelin problemleri çözerken daha fazla zaman harcadığını ve daha derine indiğini gösterme amacıyla bu şekilde tasarlanmış.

o1'i önceki OpenAI uygulamalarından ayıran temel özelliğiyse eğitilme biçiminde yatıyor. 

Eğitim bilimci ve öğretmenlerin aşina olabileceği pekiştirmeli öğrenme denen bu yöntem, doğru yanıtlar karşısında ödül, yanlış cevaplar karşısında da ceza verilmesi ilkesine dayanıyor.

Bu sayede deneme yanılmayla ilerleyen yapay zeka aracının, doğru yanıtlara ulaşma becerisi gelişiyor. Sorguları işlerken, insanların sorunları adım adım inceleyerek çözmesine benzer bir "düşünce zinciri" kullanıyor.

OpenAI, aracı "düşünmeye" iten bu yöntemin, doğruluğunu artırdığını ifade ediyor. 

2) Hangi alanlarda kullanılacak?

Karmaşık muhakeme görevlerinde kayda değer bir ilerlemeye ve yeni bir yapay zeka yeteneği seviyesine işaret ediyor. Bu nedenle sayacı tekrar 1'e sıfırlıyor ve bu seriye OpenAI o1 adını veriyoruz.

OpenAI'ın bu ifadelerle tanıttığı o1'in, dil becerilerinden ziyade bilimsel çalışmalar, veri işleme ve kodlamada daha iyi bir performans sergilemesi bekleniyor. Ayrıca o1-mini, daha küçük bir sürüm olmasına karşın özellikle kod üretmesi amacıyla geliştirildi. 

Yeni model kodlama ve matematikte sonuca ulaşma sürecini detaylandırdığı için bu alanlarda öğretmenlik yapma becerisinin önceki versiyonlardan daha iyi olması bekleniyor. 

Şirketin baş araştırma görevlisi Bob McGrew, yeni modelin ileri seviye matematik sorularında kendisinden daha iyi olduğunu belirterek kendisinin üniversitede matematik okuduğunu ekliyor.

OpenAI yeni modelin ayrıca bilim insanlarının hücre dizileme çalışmalarına ve fizikçilerin karmaşık matematiksel formüller üretmesine katkı sağlayacağını ifade ediyor. 

Ayrıca yapılan testlerde fizik, kimya ve biyolojinin bazı alanlarında doktora öğrencileriyle yarıştığı kaydedildi.

Şirketin baş bilim insanı Dr. Jakub Pachocki ve OpenAI teknik çalışanı Szymon Sido, New York Times'a yaptıkları sunumda, sohbet botunun çengel bulmacadan çok daha karmaşık akrostiş bulmacasını çözdüğü görüldü.

Yapay zeka aracı aynı zamanda doktora düzeyinde bir kimya sorusunu yanıtladı ve bir hastanın semptomları ve geçmişi hakkında ayrıntılı bir rapora dayanarak hastalığı teşhis etti.

3) GPT-4o'dan daha mı iyi?

Daha önceki modeller internetteki bilgilerle eğitildiği ve internette epey yanlış bilgi olduğu için hata yapma ihtimalleri artıyor. o1'in eğitilme biçimiyse bu hataları çok daha düşük seviyeye indirmesini sağlıyor. 

Yeni modelin; ses, görüntü ve yazıyla iletişim kuran GPT-4o'dan çok daha iyi performans gösterdiği alanlar olsa da bazı konularda gerisinde kalıyor. 

İki aracı da lise seviyesindeki Uluslararası Matematik Olimpiyatı'na sokan OpenAI, o1'in soruların yüzde 83'ünü, GPT-4o'nun ise sadece yüzde 13'ünü doğru çözdüğünü ifade ediyor. 

Thomson Reuters'tan yeni modeli test eden Pablo Arredondo, TechCrunch'a yaptığı açıklamada yasal belgeleri analiz etme ve hukuk fakültesine giriş sınavında da daha başarılı olduğunu söylüyor.

Strawberry takma adına sahip o1'in GPT-4o'yu geride bıraktığı bir diğer alan ise "strawberry" (çilek) kelimesinde kaç tane "r" harfi olduğunu bulmak.

Bu soruya "iki" yanıtını veren ChatGPT'nin önceki sürümleri internette alay konusu olmuştu. 

İlk başta çok zor bir görev gibi görünmese de yapay zeka araçları kelimeleri harf harf değil, jetonlar şeklinde işlediği için bu tip basit işlerde zorlanabiliyorlar. 

Ancak o1, daha detaylı düşünmesi ve kendisini kontrol etmesinden dolayı bu soruya doğru yanıtı vermeyi başardı. 

Öte yandan yeni model, internette arama yapma, metin ve görsel işleme gibi özelliklere henüz sahip değil. Ayrıca gerçek dünya hakkında GPT-4o kadar bilgisi de yok. 

Pennsylvania Üniversitesi Wharton İşletme Okulu'nda yapay zeka üzerine çalışan Ethan Mollick "Açıkçası o1-preview her şeyde daha iyi değil. Örneğin GPT-4o'dan daha iyi bir yazar değil" diyerek ekliyor: 

Ancak planlama gerektiren görevlerde ciddi değişiklikler sözkonusu.

OpenAI, yeni modelinde halüsinasyon sorununu da çözmeyi henüz başaramadı. Yapay zeka sohbet botlarının bazı bilgileri "uydurmasını" ifade eden halüsinasyon, bu araçların temel sorunu olmaya devam ediyor.

Modeli test eden Mollick, zorlu bir bulmacayı çözdüğünü ancak ipuçlarından birini uydurduğunu söylüyor. 

Yine de Tworek, "Bu modelin daha az halüsinasyon gördüğünü fark ettik" diyerek ekliyor: 

Ancak sorun hâlâ devam ediyor. Halüsinasyonları çözdüğümüzü söyleyemeyiz.

Son modelin bir diğer eksikliği de sorgulara yavaş cevap vermesi. Diğer sürümler neredeyse anında yanıtı sunarken, muhtemelen düşünme süresinden dolayı o1'in cevap vermesi çok daha uzun zaman alıyor.

Örneğin Mollick, bulmacayı çözmesinin 108 saniye sürdüğünü ifade ediyor.

OpenAI modelin ön izleme versiyonu olduğunu belirtirken, uzmanlar o1'in sonraki versiyonlarının hızlanmasını umuyor. 

4) İnsanlığa tehdit oluşturabilir mi?

Bazı yapay zeka araçları eğitimleri sırasında farklı kelimelerin beraber kullanılma sıklıklarını analiz ederek sözcüklerin birbirine yakınlığını tahmin ediyor. Örneğin "kedi" ve "köpek" kelimeleri birlikte daha sık kullanıldığı için yakın anlamlara sahip olmaları gerektiği sonucuna varıyor.

Bu modellerin "yapay zeka" ve "tehdit" ifadeleri arasında da böyle bir ilişki kurmuş olması muhtemel. 

Her yeni modelin piyasa sürülmesiyle akla gelen ilk sorulardan biri insanlığa varoluşsal bir tehdit yaratıp yaratmayacağı.

Sektörün önde gelen bazı isimleri bu tehlikeye karşı uyarırken bazı uzmanlar yapay zeka araçlarının nasıl kullanıldığının daha önemli olduğunu vurguluyor.

OpenAI'ın son sürümüyle bu araçların insan gibi düşünme becerisine bir adım daha yaklaşması da endişeleri artırabilir.

Ancak bu yazıdan da anlaşılabileceği üzere, o1'in becerileri henüz korkutucu bir düzeyin yakınından bile geçmiyor. 

Ars Technica'nın ifade ettiği gibi bir bulmacadaki 8 ipucunu çözmesi 108 saniye süren ve bir cevapta halüsinasyon gören bir yapay zeka modelinin potansiyel tehlike olduğunu söylemek abartıya kaçar. 

Öte yandan OpenAI'ın yanı sıra Meta ve Google gibi şirketlerin de çabaları ve son yıllardaki hızlı gelişmeler göz önüne alınırsa, insan seviyesine ulaşan yapay zeka araçları çok uzak olmayabilir.

Independent Türkçe, TechCrunch, Verge, Ars Technica, New York Times, OpenAI



Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


NASA, Mars'ta akan suyun en eski kanıtlarından birini buldu

Perseverance, Mars'ta geçirdiği 5 yılda yaklaşık 40 kilometre yol kat etti (NASA)
Perseverance, Mars'ta geçirdiği 5 yılda yaklaşık 40 kilometre yol kat etti (NASA)
TT

NASA, Mars'ta akan suyun en eski kanıtlarından birini buldu

Perseverance, Mars'ta geçirdiği 5 yılda yaklaşık 40 kilometre yol kat etti (NASA)
Perseverance, Mars'ta geçirdiği 5 yılda yaklaşık 40 kilometre yol kat etti (NASA)

NASA'nın keşif aracı Perseverance, Mars'ta bir zamanlar akan su kütleleri olduğuna dair bugüne kadarki en eski kanıtlardan birini buldu.

Su, yaşam için elzem olduğundan bilim insanları Mars'ın geçmişinde bu bileşiği özellikle arıyor. 

Son yıllarda giderek artan bulgular Kızıl Gezegen'in, yaklaşık 4,5 milyar yıllık ömrünün ilk dönemlerinde su ve belki de mikrobiyal yaşama ev sahipliği yaptığına işaret ediyor.

2021'den beri gezegenin Jezero Krateri'nde keşif çalışmaları yürüten Perseverance, yerin altında eski bir deltanın kalıntılarını tespit ederek bu kanıtlara bir yenisini ekledi. 

NASA'nın keşif aracındaki RIMFAX radarı, aşağıya gönderdiği dalgalarla yeraltındaki yapıların haritasını çıkarabiliyor.

Kaliforniya Üniversitesi Los Angeles kampüsünden araştırmacılar, cihazın Eylül 2023 ila Şubat 2024'teki verilerini inceleyerek 35 metre derinlikteki nehir deltasını ortaya çıkardı. RIMFAX daha önce bu kadar derinden veri sunmamıştı.

Bulgular, bir nehrin göl gibi daha büyük bir su kütlesine girdiği yerde oluşan, yelpaze şeklinde geniş bir tortu birikimine işaret ediyor.

rtgrt
RIMFAX, Mars yüzeyinin altındaki nehir sistemini ortaya çıkardı (NASA)

Bilim insanları deltanın yaklaşık 3,7 ila 4,2 milyar yıllık olduğunu tespit etti. Bu yapının yakınlarında, yüzeyde saptanan Batı Deltası isimli oluşum ise 3,5 ila 3,7 milyar yıl önceye tarihlenmişti.

Yeni keşfedilen delta, Mars'ın geçmişinde akan su olduğuna dair en eski kanıtlardan biri.

Bulguları hakemli dergi Science Advances'ta dün (18 Mart) yayımlanan çalışmanın başyazarı Emily Cardarelli şöyle diyor:

RIMFAX'in haritaladığı özelliklerden yola çıkarak Jezero Krateri'nin, Jezero'nun Batı Deltası'nın oluşumundan önce var olan ve biyoimzaların korunmasına elverişli, su açısından zengin eski bir ortama ev sahipliği yaptığına inanıyoruz.

Biyoimza, yaşamın varlığına işaret eden kimyasal veya fiziksel kanıtları ifade ediyor. Çalışma aynı zamanda gezegende yaşamın var olabileceği tarihi de geriye atıyor.

Cardarelli "RIMFAX, bugünkü deltadan daha eski bir yeraltı delta ortamını ortaya çıkardı ve bu, Jezero'daki potansiyel yaşanabilirlik dönemini daha da geriye götürüyor" ifadelerini kullanıyor.

Daha önce NASA'nın hem Perseverance hem de Curiosity araçları, Mars'ta antik yaşamın varlığına güçlü bir şekilde işaret eden bulgular tespit etmişti.

Çin'in Zhurong aracıysa Mars'ta yaklaşık 3,6 milyar yıl önce bir okyanusun yanı sıra "tatil yeri tarzı" plajlar olabileceğini bulmuştu. 

Cardarelli "Zaman içinde çeşitli araçların iniş alanlarında, geçtiğimiz bölgelerde ve yörünge görüntülerinde Mars yüzeyinde sıvı su olduğuna dair giderek daha fazla kanıt gördük. Suyun akmış olabileceği kanalları, bir zamanlar suyun biriktiği krater göllerini ve kaya çıkıntıları olarak biriken ve artık yerin altına gömülü kalıntılar olan delta tortularını bu araştırmayla gördük" diyerek ekliyor:

Mars çeşitliliğe sahip bir gezegen ve her keşif görevi, kayalık komşumuzun gizemli geçmişi ve erken gelişiminin bir başka parçasını ortaya çıkarıyor.

Independent Türkçe, Reuters, IFLScience, Science Advances