Yapay Zeka Terimleri Rehberi: 18 Temel Kavramı Anlamak

Yapay zeka terimleri dünyası, hızla gelişen bu alana hakim olmak isteyen herkes için karmaşık görünebilir. Bilim insanları ve sektör profesyonelleri, projelerini açıklarken sıklıkla teknik jargon kullanır. Bu durum, yapay zeka endüstrisi hakkındaki haberlerimizde bu terimleri sıkça kullanmamızı gerektiriyor. Bu nedenle, makalelerimizde kullandığımız en önemli kelime ve ifadelerin tanımlarını içeren bir sözlük hazırladık. Bu sözlük, yapay zeka araştırmacılarının sürekli yeni yöntemler keşfetmesi ve güvenlik risklerini belirlemesiyle düzenli olarak güncellenecektir.

Yapay Zeka Terimleri Dünyasına Giriş

Yapay Genel Zeka (AGI)

Yapay Genel Zeka (AGI), oldukça muğlak bir terimdir. Ancak genellikle, ortalama bir insandan daha yetenekli yapay zekayı ifade eder. OpenAI CEO’su Sam Altman, AGI’yı “iş arkadaşı olarak işe alabileceğiniz ortalama bir insanın eşdeğeri” olarak tanımladı. OpenAI’ın tüzüğü ise AGI’yı “ekonomik olarak değerli işlerin çoğunda insanlardan daha iyi performans gösteren yüksek otonom sistemler” olarak belirliyor. Google DeepMind’ın anlayışı bu iki tanımdan biraz farklıdır. Laboratuvar, AGI’yı “çoğu bilişsel görevde en az insanlar kadar yetenekli yapay zeka” olarak görüyor. Kafanız mı karıştı? Endişelenmeyin, yapay zeka araştırmalarının ön saflarındaki uzmanlar da öyle. Bu konuda daha fazla bilgi edinmek için Google AI araştırmalarını inceleyebilirsiniz.

Yapay Zeka Ajanı

Bir yapay zeka ajanı, adınıza bir dizi görevi yerine getirmek için yapay zeka teknolojilerini kullanan bir araçtır. Bu araç, temel bir yapay zeka sohbet robotunun yapabileceklerinin ötesine geçer. Örneğin, masraf beyannamesi doldurma, bilet veya restoran rezervasyonu yapma gibi işlevleri gerçekleştirebilir. Hatta kod yazıp bakımını bile üstlenebilir. Ancak bu gelişmekte olan alanda birçok değişken unsur bulunuyor. Bu nedenle, “yapay zeka ajanı” farklı kişiler için farklı anlamlar taşıyabilir. Vaat edilen yeteneklerini sunmak için altyapı da hala geliştiriliyor. Temel konsept, çok adımlı görevleri yerine getirmek için birden fazla yapay zeka sisteminden faydalanabilen otonom bir sistemi ifade eder.

Düşünce Zinciri Akıl Yürütme (Chain-of-Thought Reasoning)

Basit bir soruya insan beyni fazla düşünmeden cevap verebilir. Örneğin, “zürafa mı, kedi mi daha uzundur?” gibi sorulara anında yanıt veririz. Ancak bazı durumlarda doğru cevabı bulmak için kalem ve kağıt gerekebilir. Çünkü ara adımlar vardır. Örneğin, bir çiftçinin tavukları ve inekleri varsa, toplamda 40 baş ve 120 bacakları varsa, doğru cevabı (20 tavuk ve 20 inek) bulmak için basit bir denklem yazmanız gerekebilir.

Yapay zeka bağlamında, büyük dil modelleri için düşünce zinciri akıl yürütme, bir problemi daha küçük, ara adımlara ayırmaktır. Bu, nihai sonucun kalitesini artırır. Cevabı almak genellikle daha uzun sürer. Ancak cevap, özellikle mantık veya kodlama bağlamında, daha doğru olma olasılığı taşır. Akıl yürütme modelleri, geleneksel büyük dil modellerinden geliştirilir. Takviyeli öğrenme sayesinde düşünce zinciri odaklı düşünme için optimize edilir.

Yapay Zeka Gücünü Anlamak: Hesaplama ve Öğrenme

Hesaplama (Compute)

Çok yönlü bir terim olsa da hesaplama, yapay zeka modellerinin çalışmasını sağlayan hayati hesaplama gücünü ifade eder. Bu tür işleme, yapay zeka endüstrisini besler. Güçlü modellerini eğitme ve dağıtma yeteneği verir. Terim genellikle hesaplama gücünü sağlayan donanımlar için bir kısaltmadır. GPU’lar, CPU’lar, TPU’lar ve modern yapay zeka endüstrisinin temelini oluşturan diğer altyapı biçimlerini içerir.

Derin Öğrenme (Deep Learning)

Bu, yapay zeka algoritmalarının çok katmanlı, yapay sinir ağı (YSA) yapısıyla tasarlandığı, kendi kendini geliştiren makine öğreniminin bir alt kümesidir. Bu yapı, doğrusal modeller veya karar ağaçları gibi daha basit makine öğrenimi tabanlı sistemlere kıyasla daha karmaşık korelasyonlar yapmalarını sağlar. Derin öğrenme algoritmalarının yapısı, insan beynindeki nöronların birbirine bağlı yollarından ilham alır.

Derin öğrenme yapay zeka modelleri, verilerdeki önemli özellikleri kendileri belirleyebilir. İnsan mühendislerinin bu özellikleri tanımlamasını gerektirmez. Yapı, hatalardan öğrenebilen algoritmaları da destekler. Tekrarlama ve ayarlama süreciyle kendi çıktılarını iyileştirirler. Ancak derin öğrenme sistemleri iyi sonuçlar için çok sayıda veri noktasına (milyonlarca veya daha fazla) ihtiyaç duyar. Basit makine öğrenimi algoritmalarına göre eğitilmeleri daha uzun sürer. Bu nedenle geliştirme maliyetleri genellikle daha yüksektir.

Difüzyon (Diffusion)

Difüzyon, birçok sanat, müzik ve metin üreten yapay zeka modelinin kalbindeki teknolojidir. Fizikten ilham alan difüzyon sistemleri, verilerin yapısını (örneğin, fotoğraflar, şarkılar vb.) gürültü ekleyerek yavaşça “yok eder”. Hiçbir şey kalmayana kadar bu işlem devam eder. Fizikte, difüzyon kendiliğinden ve geri döndürülemezdir; kahveye karışan şeker küp haline geri getirilemez. Ancak yapay zekadaki difüzyon sistemleri, yok edilen verileri restore etmek için bir tür “ters difüzyon” sürecini öğrenmeyi amaçlar. Böylece verileri gürültüden kurtarma yeteneği kazanır.

Damıtma (Distillation)

Damıtma, “öğretmen-öğrenci” modeliyle büyük bir yapay zeka modelinden bilgi çıkarmak için kullanılan bir tekniktir. Geliştiriciler, öğretmen modeline istekler gönderir ve çıktıları kaydeder. Cevaplar bazen doğruluklarını görmek için bir veri kümesiyle karşılaştırılır. Bu çıktılar daha sonra öğrenci modelini eğitmek için kullanılır. Öğrenci modeli, öğretmenin davranışını yaklaşık olarak öğrenmek üzere eğitilir.

Damıtma, daha büyük bir modelden yola çıkarak minimum damıtma kaybıyla daha küçük, daha verimli bir model oluşturmak için kullanılabilir. OpenAI’ın GPT-4’ün daha hızlı bir sürümü olan GPT-4 Turbo’yu bu şekilde geliştirmiş olması muhtemeldir. Tüm yapay zeka şirketleri dahili olarak damıtma kullanırken, bazı yapay zeka şirketleri tarafından öncü modellere yetişmek için de kullanılmış olabilir. Bir rakipten damıtma yapmak, genellikle yapay zeka API’si ve sohbet asistanlarının hizmet koşullarını ihlal eder.

İnce Ayar (Fine-tuning)

Bu, bir yapay zeka modelinin performansını optimize etmek için daha spesifik bir görev veya alan için ek eğitimini ifade eder. Tipik olarak, yeni ve uzmanlaşmış (yani görev odaklı) veriler beslenerek yapılır. Birçok yapay zeka girişimi, ticari bir ürün oluşturmak için büyük dil modellerini başlangıç noktası olarak alır. Ancak kendi alanlarına özgü bilgi ve uzmanlıklarına dayalı ince ayarlarla erken eğitim döngülerini destekleyerek hedeflenen sektör veya görev için kullanışlılığı artırmayı hedefler.

Üretken Çekişmeli Ağlar (GAN)

Bir GAN veya Üretken Çekişmeli Ağ, üretken yapay zekada gerçekçi veriler üretme konusunda önemli gelişmeleri destekleyen bir makine öğrenimi çerçevesidir. Derin sahte araçlar da buna dahildir. GAN’lar, bir çift sinir ağının kullanımını içerir. Bunlardan biri eğitim verilerinden yararlanarak bir çıktı oluşturur. Bu çıktı, değerlendirilmesi için diğer modele iletilir. Bu ikinci, ayırıcı model, böylece üreticinin çıktısı üzerinde bir sınıflandırıcı rolü oynar. Bu da zamanla iyileşmesini sağlar.

GAN yapısı bir yarışma olarak kurulmuştur (bu nedenle “çekişmeli”). İki model esasen birbirini geçmeye çalışacak şekilde programlanmıştır: üretici çıktısını ayırıcının geçirmeye çalışırken, ayırıcı yapay olarak üretilmiş verileri tespit etmeye çalışır. Bu yapılandırılmış yarışma, ek insan müdahalesine gerek kalmadan yapay zeka çıktılarını daha gerçekçi hale getirmek için optimize edebilir. Ancak GAN’lar, genel amaçlı yapay zeka yerine daha dar uygulamalar (gerçekçi fotoğraflar veya videolar üretmek gibi) için en iyi sonucu verir.

Yapay Zekada Zorluklar ve İpuçları

Halüsinasyon (Hallucination)

Halüsinasyon, yapay zeka endüstrisinin modellerin yanlış bilgiler üretmesini ifade etmek için tercih ettiği terimdir. Yapay zeka kalitesi için büyük bir problemdir. Halüsinasyonlar, yanıltıcı ve hatta gerçek hayatta risklere yol açabilecek üretken yapay zeka çıktıları üretebilir. Potansiyel olarak tehlikeli sonuçlar doğurabilir (zararlı tıbbi tavsiyeler veren bir sağlık sorgusunu düşünün). Bu nedenle çoğu üretken yapay zeka aracı, kullanıcıları yapay zeka tarafından üretilen cevapları doğrulamaları konusunda uyarmaktadır. Ancak bu uyarılar, araçların anında verdiği bilgilerden genellikle çok daha az belirgindir.

Yapay zekanın bilgi uydurma problemi, eğitim verilerindeki boşluklardan kaynaklandığı düşünülüyor. Özellikle genel amaçlı üretken yapay zeka için (bazen temel modeller olarak da bilinir), bu sorunu çözmek zor görünüyor. Sorabileceğimiz tüm soruları kapsamlı bir şekilde çözmek için yapay zeka modellerini eğitecek yeterli veri mevcut değil. Halüsinasyonlar, bilgi boşluklarının olasılığını azaltmak ve dezenformasyon risklerini düşürmek amacıyla giderek daha uzmanlaşmış ve/veya dikey yapay zeka modellerine doğru bir yönelime katkıda bulunuyor.

Çıkarım (Inference)

Çıkarım, bir yapay zeka modelini çalıştırma sürecidir. Daha önce görülen verilerden tahminler yapmak veya sonuçlar çıkarmak için bir modeli serbest bırakmaktır. Açıkça belirtmek gerekirse, eğitim olmadan çıkarım gerçekleşemez. Bir modelin bu eğitim verilerinden etkili bir şekilde çıkarım yapabilmesi için bir veri kümesindeki kalıpları öğrenmesi gerekir.

Birçok donanım türü çıkarım yapabilir. Bunlar akıllı telefon işlemcilerinden güçlü GPU’lara ve özel olarak tasarlanmış yapay zeka hızlandırıcılara kadar değişir. Ancak hepsi modelleri eşit derecede iyi çalıştıramaz. Çok büyük modellerin tahmin yapması, örneğin bir dizüstü bilgisayarda, üst düzey yapay zeka çiplerine sahip bir bulut sunucusuna kıyasla çok daha uzun sürer.

Büyük Dil Modelleri (LLM)

Büyük dil modelleri veya LLM’ler, ChatGPT, Claude, Google’ın Gemini, Meta’nın AI Llama, Microsoft Copilot veya Mistral’s Le Chat gibi popüler yapay zeka asistanları tarafından kullanılan yapay zeka modelleridir. Bir yapay zeka asistanıyla sohbet ettiğinizde, isteğinizi doğrudan veya web tarama veya kod yorumlayıcıları gibi mevcut farklı araçların yardımıyla işleyen bir büyük dil modeliyle etkileşime girersiniz.

Yapay zeka asistanları ve LLM’ler farklı isimlere sahip olabilir. Örneğin, GPT OpenAI’ın büyük dil modelidir ve ChatGPT yapay zeka asistanı ürünüdür. LLM’ler, kelimeler ve ifadeler arasındaki ilişkileri öğrenen milyarlarca sayısal parametreden oluşan derin sinir ağlarıdır. Bir tür çok boyutlu kelime haritası olan dilin bir temsilini oluştururlar. Bu modeller, milyarlarca kitap, makale ve transkriptteki kalıpları kodlayarak oluşturulur. Bir LLM’ye komut verdiğinizde, model komuta uyan en olası kalıbı üretir. Daha sonra daha önce söylenenlere dayanarak bir sonraki en olası kelimeyi değerlendirir ve bu süreci tekrarlar.

Bellek Önbelleği (Memory Cache)

Bellek önbelleği, çıkarımı (yapay zekanın kullanıcının sorgusuna yanıt üretmek için çalıştığı süreç) artıran önemli bir süreci ifade eder. Özünde, önbellekleme bir optimizasyon tekniğidir. Çıkarımı daha verimli hale getirmek için tasarlanmıştır. Yapay zeka, yüksek oktanlı matematiksel hesaplamalarla yönlendirilir. Bu hesaplamalar her yapıldığında daha fazla güç tüketirler. Önbellekleme, belirli hesaplamaları gelecekteki kullanıcı sorguları ve işlemleri için kaydederek bir modelin çalıştırması gereken hesaplama sayısını azaltmak için tasarlanmıştır. Farklı türlerde bellek önbellekleme vardır. En bilinenlerden biri KV (veya anahtar değer) önbelleklemedir. KV önbellekleme, dönüştürücü tabanlı modellerde çalışır. Verimliliği artırır. Kullanıcı sorularına yanıt üretmek için gereken süreyi (ve algoritmik emeği) azaltarak daha hızlı sonuçlar sağlar.

Sinir Ağı (Neural Network)

Sinir ağı, derin öğrenmenin ve daha geniş anlamda büyük dil modellerinin ortaya çıkışından sonra üretken yapay zeka araçlarındaki patlamanın temelini oluşturan çok katmanlı algoritmik yapıyı ifade eder. İnsan beyninin yoğun bir şekilde birbirine bağlı yollarından ilham alarak veri işleme algoritmaları için bir tasarım yapısı oluşturma fikri 1940’lara kadar uzanır. Ancak bu teorinin gücünü gerçekten ortaya çıkaran, video oyun endüstrisi aracılığıyla grafik işlemci donanımının (GPU’lar) çok daha yakın zamanda yükselişiydi. Bu çipler, önceki dönemlerde mümkün olandan çok daha fazla katmanlı algoritmaları eğitmek için çok uygundu. Böylece sinir ağı tabanlı yapay zeka sistemlerinin ses tanıma, otonom navigasyon ve ilaç keşfi dahil birçok alanda çok daha iyi performans göstermesini sağladı.

RAMageddon (RAM Kıyameti)

RAMageddon, teknoloji endüstrisini saran pek de eğlenceli olmayan yeni bir terimdir. Günlük hayatımızda kullandığımız neredeyse tüm teknoloji ürünlerini çalıştıran rastgele erişimli bellek veya RAM çiplerinin sürekli artan kıtlığını ifade eder. Yapay zeka endüstrisi geliştikçe, en büyük teknoloji şirketleri ve yapay zeka laboratuvarları (hepsi en güçlü ve verimli yapay zekaya sahip olmak için yarışıyorlar), veri merkezlerini güçlendirmek için o kadar çok RAM satın alıyor ki, diğerlerimiz için pek bir şey kalmıyor. Bu tedarik darboğazı, kalanların giderek daha pahalı hale gelmesi anlamına geliyor.

Bu durum, oyun (büyük şirketlerin cihazları için bellek çipi bulmak zor olduğu için konsol fiyatlarını artırmak zorunda kaldığı yerler), tüketici elektroniği (bellek kıtlığının on yıldan fazla bir süredir akıllı telefon sevkiyatlarında en büyük düşüşe neden olabileceği yerler) ve genel kurumsal bilgi işlem (çünkü bu şirketler kendi veri merkezleri için yeterli RAM alamıyorlar) gibi sektörleri de kapsıyor. Fiyatlardaki artışın ancak korkunç kıtlık sona erdikten sonra durması bekleniyor. Ancak maalesef, bunun yakın zamanda olacağına dair pek bir işaret yok.

Yapay Zeka Modellerini Eğitme Süreci

Eğitim (Training)

Makine öğrenimi yapay zekalarını geliştirmek, eğitim olarak bilinen bir süreci içerir. Basitçe söylemek gerekirse, bu, modelin kalıplardan öğrenebilmesi ve faydalı çıktılar üretebilmesi için veri beslenmesini ifade eder. Bu noktada işler yapay zeka yığınında biraz felsefi hale gelebilir. Çünkü ön eğitimde, bir öğrenme sistemi geliştirmek için başlangıç noktası olarak kullanılan matematiksel yapı sadece bir dizi katman ve rastgele sayılardır. Yapay zeka modeli ancak eğitim yoluyla gerçekten şekillenir. Esasen, sistemin verilerdeki özelliklere yanıt verme süreci, kedilerin resimlerini tanımlamak veya isteğe bağlı olarak bir haiku üretmek gibi istenen bir hedefe doğru çıktıları uyarlamasını sağlar.

Tüm yapay zekaların eğitim gerektirmediğini belirtmek önemlidir. Manuel olarak önceden tanımlanmış talimatları izlemek üzere programlanmış kural tabanlı yapay zekalar (örneğin, doğrusal sohbet robotları) eğitimden geçmek zorunda değildir. Ancak bu tür yapay zeka sistemleri, (iyi eğitilmiş) kendi kendine öğrenen sistemlere göre daha kısıtlı olma olasılığı taşır. Yine de eğitim pahalı olabilir. Çünkü çok fazla girdi gerektirir. Tipik olarak, bu tür modeller için gereken girdi hacimleri artma eğilimindedir.

Model geliştirme süresini kısaltmak ve maliyetleri yönetmeye yardımcı olmak için bazen hibrit yaklaşımlar kullanılabilir. Örneğin, kural tabanlı bir yapay zekanın veri odaklı ince ayarını yapmak. Bu, geliştiricinin sıfırdan başlaması durumuna göre daha az veri, hesaplama, enerji ve algoritmik karmaşıklık gerektirir.

Tokenlar (Tokens)

İnsan-makine iletişimi söz konusu olduğunda bazı bariz zorluklar vardır. İnsanlar insan diliyle iletişim kurarken, yapay zeka programları verilerle beslenen karmaşık algoritmik süreçler aracılığıyla görevleri yürütür ve sorgulara yanıt verir. En basit tanımıyla tokenlar, insan-yapay zeka iletişiminin temel yapı taşlarını temsil eder. Çünkü bunlar, bir LLM tarafından işlenmiş veya üretilmiş ayrı veri segmentleridir.

Tokenlar, “tokenleştirme” olarak bilinen bir süreçle oluşturulur. Bu süreç, ham veriyi ayrıştırır ve bir LLM için sindirilebilir ayrı birimlere dönüştürür. Bir yazılım derleyicisinin insan dilini bir bilgisayarın sindirebileceği ikili koda çevirmesine benzer şekilde, tokenleştirme, kullanıcının sorguları aracılığıyla insan dilini bir yapay zeka programı için yorumlar. Böylece bir yanıt hazırlayabilir.

Birkaç farklı token türü vardır. Bunlar arasında girdi tokenları (bir insan kullanıcının sorgusuna yanıt olarak üretilmesi gereken tür), çıktı tokenları (LLM’nin insanın isteğine yanıt olarak ürettiği tür) ve kullanıcının isteğinin bir parçası olarak ortaya çıkan daha uzun, daha yoğun görevleri ve süreçleri içeren akıl yürütme tokenları bulunur.

Kurumsal yapay zekada, token kullanımı aynı zamanda maliyetleri de belirler. Tokenlar, bir model tarafından işlenen veri miktarına eşdeğer olduğundan, yapay zeka endüstrisinin hizmetlerini ticarileştirme aracı haline gelmişlerdir. Çoğu yapay zeka şirketi, LLM kullanımını token başına ücretlendirir. Bu nedenle, bir işletme bir yapay zeka programını (örneğin ChatGPT) kullanırken ne kadar çok token yakarsa, yapay zeka hizmet sağlayıcısına (OpenAI) o kadar çok para ödemek zorunda kalır.

Aktarım Öğrenimi (Transfer Learning)

Bu, önceden eğitilmiş bir yapay zeka modelinin farklı ancak genellikle ilgili bir görev için yeni bir model geliştirmek üzere başlangıç noktası olarak kullanıldığı bir tekniktir. Bu, önceki eğitim döngülerinde kazanılan bilginin yeniden uygulanmasına olanak tanır. Aktarım öğrenimi, model geliştirmeyi kısaltarak verimlilik tasarrufu sağlayabilir. Ayrıca, modelin geliştirildiği görev için veri sınırlı olduğunda da faydalı olabilir. Ancak bu yaklaşımın sınırlamaları olduğunu belirtmek önemlidir. Genel yetenekler kazanmak için aktarım öğrenimine dayanan modellerin, odaklandıkları alanda iyi performans göstermek için ek verilerle eğitime ihtiyaç duymaları muhtemeldir.

Ağırlıklar (Weights)

Ağırlıklar, yapay zeka eğitiminin temelidir. Sistem eğitimi için kullanılan verilerdeki farklı özelliklere (veya girdi değişkenlerine) ne kadar önem (veya ağırlık) verildiğini belirlerler. Böylece yapay zeka modelinin çıktısını şekillendirirler. Başka bir deyişle, ağırlıklar, belirli bir eğitim görevi için bir veri kümesinde neyin en önemli olduğunu tanımlayan sayısal parametrelerdir. Girişlere çarpma uygulayarak işlevlerini yerine getirirler. Model eğitimi genellikle rastgele atanan ağırlıklarla başlar. Ancak süreç ilerledikçe, model hedefe daha yakından eşleşen bir çıktıya ulaşmaya çalışırken ağırlıklar ayarlanır.

Örneğin, belirli bir konum için geçmiş emlak verileriyle eğitilmiş bir konut fiyatı tahmin modeli düşünün. Bu model, yatak odası ve banyo sayısı, mülkün müstakil mi yoksa yarı müstakil mi olduğu, otoparkı, garajı olup olmadığı gibi özellikler için ağırlıklar içerebilir. Sonuç olarak, modelin bu girdilerin her birine atfettiği ağırlıklar, verilen veri kümesine göre bir mülkün değerini ne kadar etkilediklerini yansıtır.

Yapay zeka, sürekli evrilen bir alan. Bu temel terimlere hakim olmak, bu heyecan verici dünyaya daha derinlemesine bakmanızı sağlayacaktır.

Daha fazla güncel Teknoloji haberleri için sitemizi takip edebilirsiniz.

Kim Biliyo
Kim Biliyo
Meraklı Kim Biliyo

İlginizi Çekebilir

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz
Captcha verification failed!
Captcha kullanıcı puanı başarısız oldu. lütfen bizimle iletişime geçin!

POPÜLER