OpenAI’den metin komutlarından video oluşturma hizmeti: Sora

1080p kalitesindeki videoların uzunluğu 1 dakika.

Sora modeli 1080p çözünürlükte film benzeri sahneler oluşturabiliyor. (Open AI)
Sora modeli 1080p çözünürlükte film benzeri sahneler oluşturabiliyor. (Open AI)
TT

OpenAI’den metin komutlarından video oluşturma hizmeti: Sora

Sora modeli 1080p çözünürlükte film benzeri sahneler oluşturabiliyor. (Open AI)
Sora modeli 1080p çözünürlükte film benzeri sahneler oluşturabiliyor. (Open AI)

OpenAI'nin yeni Sora teknolojisi, yapay zeka dünyasında, özellikle de metni videoya dönüştürme alanında olağanüstü bir sıçramayı temsil ediyor. Video içeriği oluşturmada yeni bir çağ başlatmak üzere tasarlanan bu yenilikçi teknoloji, basit metin talimatlarıyla bir dakikaya kadar uzunlukta son derece gerçekçi ve yaratıcı videolar oluşturulmasına olanak sağlıyor. Bu yeteneği sayesinde Sora, yapay zekanın dijital medya yaratımında devrim yaratma potansiyeli açısından oldukça ileri seviye bir örnek teşkil ediyor.

Örneğin, Sora'ya şu paragraf veriliyor:

"Zarif bir kadın, sıcak neon ışıkları ve hareketli şehir tabelalarıyla dolu bir Tokyo caddesinde yürümektedir. Siyah deri bir ceket, uzun kırmızı bir elbise, siyah ayakkabılar giyiyor ve siyah bir cüzdan taşıyor. Güneş gözlüğü takıyor ve ruj sürüyor. Kendinden emin ve rahat bir şekilde yürüyor. Sokak nemli ve yansıtıcı, renkli ışıklar ayna etkisi yaratıyor. Etrafta yürüyen bir sürü yaya var."

Sonuç ise bu (OpenAI internet sitesinden):

Yenilikçi yetenekler ve zorluklar

Sora, birden fazla karakter, belirli eylem türleri ve ayrıntılı senaryolar içeren karmaşık sahneler oluşturabiliyor. Tüm bunları yaparken bir kullanıcının komut istemindeki nüansları anlayabiliyor. Dikkat çeken bir özellik de Sora'nın tüm videoyu bir kerede oluşturabilmesi ve böylece özneler görüş alanından çıktığında görünümde meydana gelen değişiklikler gibi tutarsızlıkları ortadan kaldırmasında kendini gösteriyor.

Ancak modelin zayıf yönleri de yok değil. Örneğin, bir kişi elmadan bir ısırık alırken fotoğraflanabilir ancak ısırık izi artık elmanın üzerinde görünmeyebilir. Sora ayrıca sol ve sağı ayırt edememek gibi uzamsal ayrıntılar ve yönlerle başa çıkmakta veya belirli bir kamera yoluna bağlı kalmak gibi zaman içinde gelişen sahnelerin olaylarını tanımlamakta zorluk çekebilir.

Sora'nın tekniğiyle elde edilen sonuçlara bir başka örnek de kendisinden özellikle istenen bu paragrafı videoya çevirmesi (OpenAI internet sitesinden:

"Kamera doğrudan İtalya'nın Burano kentinin renkli binalarına bakıyor. Sevimli bir Dalmaçyalı köpek zemin kattaki bir binanın penceresinden bakıyor. Birçok insan binaların önündeki kanal sokaklarında yürüyor ve bisiklete biniyor."

Araştırma ve geliştirme teknolojileri

Şarku’l Avsat’ın edindiği bilgilere göre Sora, GPT modellerine benzer şekilde sıralı verileri işlemek için kullanılan derin öğrenme mimarisi türlerini kullanarak büyük miktarda veriyi verimli bir şekilde işlemesine olanak tanıyor. Model, videoları ve görüntüleri GPT'deki belirteçlere benzer şekilde veri yamaları kümeleri olarak temsil ederek çeşitli görsel veriler üzerinde eğitilmesine olanak tanır. Veri temsilinin bu şekilde birleştirilmesi sayesinde Sora'nın teknolojisi, süre, doğruluk ve diğer özellikleri daha önce hiç olmadığı kadar verimli bir şekilde ele almasını sağlıyor. Sora ayrıca DALL-E ve GPT modelleri üzerine yapılan araştırmalara dayanıyor ve görsel eğitim verileri için son derece açıklayıcı başlıklar oluşturmak için DALL-E 3'ün geri alma teknolojisini kullanıyor. Bu sayede kullanıcının metin talimatlarını daha doğru bir şekilde takip eden videolar oluşturuluyor. Model ayrıca hareketsiz görüntüleri canlandırabilir veya mevcut videoları ayrıntılara dikkat ederek genişletebilir ve gerçek dünya uygulamalarındaki çok yönlülüğü ve potansiyeli gösterebilir.

Güvenlik ve etik hususlar

Güvenlik ve etiğin öneminin farkında olan OpenAI, Sora'nın ürünlerine entegre edilebilmesi için birçok önemli adım attı. Şirket, X platformundaki bir paylaşımında, şirket içinde yanlış bilgilendirme, nefret içeriği ve önyargı gibi alanlarda uzmanlaşmış bir ekip olan Red Team üyeleriyle iş birliği yaparak, Sora tarafından oluşturulan videoları tanımlayabilen bir sınıflandırma aracı geliştirildiğini bildirdi.

Katılım ve gelecek beklentileri

OpenAI, endişeleri anlamak ve Sora için olumlu kullanım durumlarını belirlemek için küresel çapta politikacılar, eğitimciler ve sanatçılarla etkileşim kurmayı planlıyor. Kapsamlı araştırma ve testlere rağmen, potansiyel faydalı ve zararlı kullanımların tamamı bilinmiyor. OpenAI, zaman içinde daha güvenli yapay zeka sistemleri yaratmada kritik bir unsur olarak gerçek dünya kullanarak öğrenmenin önemine inanıyor.

Sora, yapay zekanın gerçek dünyayı anlama ve simüle etme becerisinde büyük bir ilerlemeyi temsil ediyor ve genel yapay zekaya (AGI) ulaşma yolunda kritik bir adımı işaret ediyor. Sora'nın geliştirilmesi sadece ilgi çekici video içeriği oluşturma potansiyelini göstermekle kalmıyor, aynı zamanda yapay zeka araştırma ve uygulamalarında devam eden zorlukları ve sorumlulukları da vurguluyor.



Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
TT

Google tarih vererek uyardı: Tüm şifreler tehlikeye girecek

Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)
Kuantum bilgisayarlar, klasik bilgisayarların aksine 0 ve 1 (bit) yerine, aynı anda her ikisi olabilen kübit (kuantum bit) birimlerini kullanıyor (Reuters)

Google, kuantum bilgisayarların 2029'a kadar şifreli sistemleri ele geçirebileceği uyarısında bulundu.

Alphabet'in sahibi olduğu şirketin internet sitesindeki blog paylaşımında, kuantum bilgisayarların 2020'lerin sonuna kadar "mevcut şifreleme standartları için ciddi bir tehdit oluşturacağı" belirtildi.

Teknoloji devinin çarşamba günkü paylaşımında şu ifadelere yer verildi:

Bilgilerin gizli ve güvenli tutulması için kullanılan mevcut şifreleme sistemleri, önümüzdeki yıllarda büyük ölçekli bir kuantum bilgisayar tarafından kolayca kırılabilir. Kuantum bilgisayarlar mevcut şifreleme standartları, özellikle de dijital imzalar için ciddi bir tehdit oluşturacak.

Banka, devlet ve teknoloji hizmeti sağlayıcılarının kuantum bilgisayar korsanlarına karşı hazırlıklı olması gerektiği de vurgulandı.

Google, kendi şifreleme ve güvenlik sistemlerinin de bu tehditlere karşı güncellediğini bildirdi.

Cambridge merkezli kuantum teknolojisi şirketi Riverlane'in eski ürün geliştirme direktörü Leonie Mueck, depolanan gizli bilgilerin kuantum bilgisayar saldırılarına karşı korunabilmesi için uzun süredir çalışıldığını belirtiyor:

İstihbarat camiasında muhtemelen 10 yıldan fazladır bu tehdide karşı çalışmalar yapıldığını görüyoruz. Bugün gizli olarak sınıflandırılan belgelerin, 10 yıl sonra bir kuantum bilgisayarın şifresini çözemeyeceği şekilde depolanması gerekir.

Birleşik Krallık'ın (BK) siber güvenlik kurumu Ulusal Siber Güvenlik Merkezi'nden geçen yıl yapılan açıklamada, kuruluşların 2035'e kadar sistemlerini kuantum bilgisayar korsanlarına karşı daha güvenli hale getirmesi istenmişti.

BK ve ABD'deki üniversiteler, kuantum bilgisayarları son derece karmaşık matematiksel hesaplamalar yapmak için kullanıyor.

Ancak uzmanlara göre, kuantum mekaniğinin ilkeleriyle çalışan bu sistemlerin gelişmesiyle bilinen şifreleme modelleri de tehlikeye girebilir.

Teknoloji camiasında "Q Günü" diye de adlandırılan bu senaryoda, kuantum bilgisayarların mevcut tüm şifreleme sistemlerini aşarak kapsamlı siber saldırılarla küresel çapta felakete yol açabileceği öngörülüyor.

Independent Türkçe, Guardian, Gizmodo


Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: Nöron dondurma

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe


Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
TT

Yapay zeka güvenliğinde çığır açan gelişme: "Nöron dondurma"

Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)
Araştırmacılar, OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi uygulamalara güç veren büyük dil modelleri için yeni bir güvenlik önlemi yöntemi keşfetti (Unsplash)

Yapay zeka araştırmacıları, ChatGPT ve diğer popüler sohbet botlarını daha güvenli hale getirmek için yenilikçi bir teknik geliştirdi.

"Nöron dondurma" adı verilen bu yöntem, kullanıcıların yapay zeka araçlarının temelindeki büyük dil modellerine (BDM) yerleştirilen güvenlik filtrelerini atlatmasını engelliyor.

Bu BDM'ler halihazırda güvenliği, bir yanıt oluşturmaya başlarken ikili bir kontrol noktası olarak ele alıyor; bir sorgu güvenli görünüyorsa yapay zeka devam ediyor ancak tehlikeli görünüyorsa yanıt vermeyi reddediyor.

Kullanıcılar, zararlı komutları farklı bağlamlarda sunarak bu kontrolleri atlatmanın yollarını bulmayı başarıyor. Örneğin geçen yıl yapılan bir araştırma, kötü niyetli bir komutun şiir biçiminde yeniden yazılmasıyla yapay zeka güvenlik önlemlerinin atlatılabileceğini saptamıştı.

Bu atlatma yöntemlerinin düzeltilmesi için aracın yeniden eğitilmesi veya tek tek yamalar yapılması gerekiyor ancak yeni araştırma, kötüye kullanımı önlemek için etik sınırları BDM'lere kalıcı olarak kodlamanın yolunu sunuyor.

North Carolina Eyalet Üniversitesi'nden bir ekibin geliştirdiği çığır açıcı yöntem, sinir ağı içindeki güvenlik açısından kritik öneme sahip belirli "nöronları" tespit edip kullanıcı görevi nasıl tanımlarsa tanımlasın, modelin güvenlik özelliklerini koruyacak şekilde bu nöronları sabitlemeyi içeriyor.

North Carolina Eyalet Üniversitesi'nden araştırmayı yöneten doktora öğrencisi Jianwei Li, "Bu çalışmadaki amacımız, mevcut güvenlik uyumu sorunlarını daha iyi anlayarak BDM'ler için yüzeysel olmayan bir güvenlik uyumunun nasıl uygulanacağına dair yeni bir rota çizmekti" diyor.

İnce ayar sürecinde belirli nöronları 'dondurmanın', modelin spesifik bir alandaki yeni görevlere adapte olurken orijinal modelin güvenlik özelliklerini korumasına olanak tanıdığını tespit ettik.

North Carolina Eyalet Üniversitesi'nde bilgisayar bilimi alanında yardımcı doçent olan Jung-Eun Kim şöyle ekliyor: 

Buradaki genel tablo şu: BDM'lerde güvenlik uyumuyla ilgili zorlukları anlamada kavramsal bir çerçeve görevi gören bir hipotez geliştirdik, bu çerçeveyi kullanarak bu zorluklardan birini çözmemizi sağlayacak bir teknik belirledik ve ardından bu tekniğin işe yaradığını gösterdik.

Araştırmacılar, bu çalışmanın yapay zeka modellerinin yanıt üretirken akıl yürütmelerinin güvenli olup olmadığını sürekli değerlendirebilmesini sağlayacak yeni tekniklerin geliştirilmesine temel oluşturmasını umuyor.

Bu çığır açıcı gelişme, gelecek ay Brezilya'da düzenlenecek 14. Uluslararası Öğrenme Temsilleri Konferansı'nda (ICLR2026) sunulacak "Superficial safety alignment hypothesis" (Yüzeysel güvenlik uyumu hipotezi) başlıklı makalede detaylandırılıyor.

Independent Türkçe