Dün (5 Ağustos 2025) OpenAI, uzun zamandır beklenen açık kaynak (open-weight) yapay zeka modellerini sonunda duyurdu. Adları biraz teknik: GPT-OSS-120B ve GPT-OSS-20B. Ama bu kadar büyük isimlerin arkasında yatan şey aslında şu: Artık biz de, yani bireysel geliştiriciler, araştırmacılar ya da bu işlerle hobi olarak uğraşanlar, OpenAI kalitesinde bir LLM’e doğrudan erişebiliyoruz. Üstelik ticari olarak da kullanabiliyoruz çünkü modeller Apache 2.0 lisansıyla yayınlandı.
Bu modeller tam olarak nedir?
İkisi de Transformer tabanlı ve Mixture-of-Experts (MoE) mimarisine sahip. Bu ne demek? Teknik detaya çok girmeden anlatayım: MoE sayesinde modelin içindeki tüm parametreler her seferinde kullanılmıyor. Sadece gerekli uzman parçalar çalışıyor, böylece hem hız kazanılıyor hem de kaynak kullanımı azalıyor. Özellikle büyük model olan 120B, bu sistemle çok daha verimli hale geliyor.
- GPT-OSS-120B: Yaklaşık 117 milyar parametre. Büyük işler, kurumsal projeler ya da araştırmalar için ideal.
- GPT-OSS-20B: Daha hafif ama hâlâ güçlü. Tek GPU ile çalıştırmak mümkün.
Ben ilk olarak 20B modeli indirip kendi bilgisayarımda denemeye başladım.
Teknik özellikleri nasıl?
Her iki model de 128 k token bağlam penceresi, grouped multi‑query attention, RoPE pozisyon kodlaması ve MXFP4 gibi modern tekniklerle optimize edilmiştir. Modeller adli (adversarial) fine‑tuning yoluyla farklı risk senaryolarına karşı test edildi; OpenAI, kötü niyetli kullanım risklerini düşük bulduğunu ve bağımsız uzman incelemeleriyle güvenliği artırdığını belirtiyor.
gpt‑oss‑120B
OpenAI’ın o4‑mini modeline yakın veya çoğu benchmark'ta eşit performans sunuyor; özellikle kodlama, matematik, sağlık gibi alanlarda yüksek başarı gösteriyor.
Özellikleri: Toplam yaklaşık 117 milyar parametre, her token için ~5.1 milyar aktif parametre, 36 katman, 128 uzman (experts), bunlardan 4 tanesi her token için aktif
gpt‑oss‑20B
o3‑mini ile benzer performans seviyesinde olmasına rağmen daha düşük donanım ihtiyacıyla yerel kullanım için ideal
Özellikleri: Yaklaşık 21 milyar parametre, ~3.6 milyar aktif parametre, 32 uzman, yine 4 aktif MoE uzmanı
Model | Transformer Blocks | Total Params | Active Params Per Token | Total Experts | Active Experts Per Token | Context Length |
---|---|---|---|---|---|---|
gpt-oss-120b | 36 | 117B | 5.1B | 128 | 4 | 128k |
gpt-oss-20b | 24 | 21B | 3.6B | 32 | 4 | 128k |
Hangi bilgisayarlar hangi modele uygun?
Eğer bu modelleri kendi bilgisayarında çalıştırmak istiyorsan, hangisinin sana uygun olduğunu anlamak önemli. Çünkü GPT-OSS-120B gerçekten çok büyük bir model ve her cihazın altından kalkabileceği bir şey değil.
Benim önerim şu: Eğer elinde Apple Silicon tabanlı bir Mac’in varsa (özellikle M2 Pro/M3 Pro ve üzeri modeller), GPT-OSS-20B modelini rahatlıkla deneyebilirsin. Bu model daha hafif ve kişisel kullanım için gayet uygun. Ben de testlerimi bu model üzerinden yapıyorum. Özellikle Ollama gibi araçlarla kurulumu da oldukça kolay.
Ama eğer daha iyi sonuçlar için GPT-OSS-120B modelini çalıştırmak istiyorsan, o zaman biraz daha kuvvetli bir cihaza sahip olmak gerekiyor. M4 Max gibi modellerle birlikte 48GB üstü RAM ile denenebilir. Kısacası, bu model evdeki bilgisayarda değil, büyük sunucularda ya da bulut platformlarında (Amazon SageMaker, Azure AI Foundry gibi) çalıştırılmak üzere tasarlanmış. Bireysel kullanıcılar için pek uygun değil, ama araştırma, kurumsal projeler veya yüksek ölçekli AI çözümleri için oldukça güçlü.
Ben kişisel olarak, 20B modelini yerel ortamda test etmekle başladım. Eğer senin de bilgisayarın ortalama bir düzeydeyse, GPT-OSS-20B fazlasıyla yeterli olacaktır.
Nasıl kullanılır?
Eğer bu modelleri kurcalamak isterseniz birkaç yol var. Benim favori aracım Ollama ile kullanmak. Kurulumu oldukça basit ve çok hızlı bir şekilde test edebilirsiniz. Üstelik içerisinde diğer ücretsiz modeller de var.
1. Ollama ile local kullanım
ollama.com üzerinden Ollama uygulamasını indirip kuruyoruz. Ardından da chat ekranında sağ altta bulunan ücretsiz modellerden gpt-oss:20b'yi seçip chat ekranına herhangi bir sorunuzu yazıp ilettikten sonra modeli indirmeye başlayıp localinize kuracaktır. Ardından modeli kullanabilirsiniz. Her şey hazır!
2. Hugging Face üzerinden çalıştırmak
Hugging Face, bu modellerin barındırıldığı yer. Python ortamınızı kurduktan sonra aşağıdaki gibi kod ile modeli çalıştırabiliyorsunuz:
pip install transformers accelerate
from transformers import pipeline
generator = pipeline("text-generation", model="openai/gpt-oss-20b", device_map="auto")
generator("Merhaba dünya, bugün nasılsın?", max_new_tokens=100)
3. AWS ve Azure üzerinden kurumsal kullanım
Daha büyük projelerde çalışıyorsanız, Amazon SageMaker veya Azure AI Foundry üzerinden bu modelleri doğrudan bulut ortamlarında çalıştırmak mümkün. Hatta Amazon, bu modelleri direkt olarak SageMaker JumpStart üzerinden erişilebilir hale getirmiş.
Peki ne işe yarar?
Benim için bu modellerin en güzel tarafı: özgürlük. Artık bir dil modeli kullanırken API sınırlarına, karakter limitlerine veya aylık ücretlere takılmadan tamamen kendi ortamımda çalıştırabiliyorum.
Eğitim için mi kullanacaksın? Müşterine özel chatbot mu yapmak istiyorsun? Belki bir yazı asistanı ya da kod tamamlayıcı? Hepsi mümkün. Üstelik OpenAI’ın önceki kapalı modelleriyle yarışabilecek seviyede oldukları benchmark sonuçlarıyla da doğrulanmış durumda.
Aşağıda bazı benchmark sonuçları yer almaktadır.
Codeforces'ta yapılan algoritma yarışmalarındaki kodlama performansı
Model | Tools | Elo Rating |
---|---|---|
gpt-oss-120b | with tools | 2622 |
gpt-oss-120b | without tools | 2463 |
gpt-oss-20b | with tools | 2516 |
gpt-oss-20b | without tools | 2230 |
o3 | with tools | 2706 |
o4-mini | with tools | 2719 |
o3-mini | without tools | 2073 |
Yapay zeka modellerinin farklı alanlardaki uzman düzeyindeki sorulara verdikleri cevaplar
Model | Tools | Accuracy (%) |
---|---|---|
gpt-oss-120b | with tools | 19.0 |
gpt-oss-120b | without tools | 14.9 |
gpt-oss-20b | with tools | 17.3 |
gpt-oss-20b | without tools | 10.9 |
o3 | with tools | 24.9 |
o4-mini | with tools | 17.7 |
o3-mini | without tools | 13.4 |
Bizi ne bekliyor?
GPT-OSS modelleriyle birlikte OpenAI, uzun zamandır ilk kez topluluğa net bir şekilde "Buyurun, bizimle aynı ligde oynayın" dedi. Bu, sadece geliştiriciler için değil; tüm ekosistem için büyük bir fırsat.