TEKNOLOJİ 24 Haziran 2024
13,2b OKUNMA     209 PAYLAŞIM

Ekran Kartlarıyla Bildiğimiz Nvidia, Ne Oldu da Dünyanın En Değerli Şirketi Haline Geldi?

Kaliforniya merkezli teknoloji firması, 3.3 trilyon dolara ulaşarak Microsoft ve Apple'ı geride bıraktı. Peki oyun oynamamızı sağlayan ekran kartlarıyla bildiğimiz Nvidia ne oldu da böyle hızlı tırmandı?

Nedir olay?

nvidia (nvda); önce apple'ı ardından ise dünyanın en değerli şirketi (artık eski) microsoft'u geçerek, ilk kez, dünyanın en değerli şirketi pozisyonuna yerleşmiştir.

ekran kartları + kripto + veri merkezleri + otonom sürüş + yapay zeka çipleri ve sonuç: piyasa değeri. nvda piyasa değeri bugün: $3,34 trilyon, dünyanın en değerli şirketi (ilk kez)...

1999'da steve jobs'ın apple'a döndüğü dönem, nasdaq'ta halka açılan bir şirket. 25 yılda %591 bin artış. (bbg)

kaynak

Nedir bunun esas sebebi?

nvidia, son yükseliş haberlerine bakacak olursak yine de almanya'dan büyük olmayan bir şirkettir. piyasa değeri alman borsasına kayıtlı olan şirketlerin toplam piyasa değerinden daha yüksek olan şirkettir. bir şirketin piyasa değeri sadece içinde bulunulan andaki piyasa eylemlerinin büyüklüğüyle ilintili değildir. piyasa değeri aynı zamanda geleceğe dair yapacağı işlerin büyüme potansiyeline de bağlıdır.

gpu (graphical processing unit), türkçe adıyla ekran kartı, yer yer grafik kartı diyen de var. nvidia uzun yıllar gamerlar için ekran kartı üretmesiyle ünlü bir şirketti. bitcoinler patladığında madenciliğe girişen insanlar manyak gibi ekran kartı almaya başladılar.

gpu'ları gamerlar için önemli olmaktan çıkarıp asıl önem kazanmasını sağlayan mekanizma, paralel hesaplama güçlerinin cpu (central processing unit) ile kıyaslanamayacak kadar yüksek olmasıydı. benim gpu çözücülerle tanışmam da bu vesileyle oldu.

hesaplamalı aerodinamikte doktora çalışmama devam ederken, truba'nın altyapısını çok kez kullandım. burada linux tabanlı bir server'da sahip olduğunuz kullanıcı adını kullanarak ana bilgisayara iş veriyorsunuz. bunu verme nedeniniz, normal laptop ya da pc'lerle bu problemi çözmeye imkan olmamasıdır. mesela ben kendi tezim için koşturduğum detached eddy simulation analizlerinden birinde bir füzenin etrafındaki uzayı, 83 milyon küçük hücreye bölerek çok küçük zaman adımlarında, ortalama olarak bir saniyenin 200 binde biri kadar küçük, sürekli hesaplayıp veri topladım. bu analizde 224 cpu ve 761 gb ram kullanarak yaklaşık 14 gün boyunca aralıksız olarak bekledim.

hava durumu tahminleri, uçak ya da füze aerodinamik veritabanı analizleri, çoklu fizik içeren combustion ve atomizasyon problemleri gibi birçok alanda hesaplamalı akışkanlar dinamiği sıklıkla kullanılıyor. fakat teknolojide gpu'ların bu paralel hesaplama gücünün bu kadar yüksek olduğunun fark edilip buna göre teknoloji geliştirilmesi süreci görece olarak çok yenidir.

nvidia özellikle daha fazla çalışma gerçekleştirilmesi için 2007 yılında cuda adlı api'yi çıkardı. buna daha sonra birçok eklenti geldi. mesleki ilgi nedeniyle benim en çok ilgimi çeken ise cusparse idi. sparse matrislerle, yani seyrek ve çoğu elemanı sıfır olan matrislerle vektör çarpımından, matris çarpımına kadar geniş bir yelpazede yazılmış bir kütüphanedir.

o zamanlar bunu üstlerimize rapor etmiştik. bakın cpu'lara milyonlarca dolar yatırım yapma ihtiyacımızı ortadan kaldıracak muazzam bir potansiyel var burada diye ama odak nokta işgücünün tsk'nın acil ihtiyaç duyduğu projelere kaymasıyla sonuçlanmıştı. ortalama bir orta menzil balistik füzenin aerodinamik veritabanını çıkarmak için aşağı yukarı 1000-1500 cfd analizine ihtiyaç ver buna veritabanı doğrulama analizleri dahil değil. tusaş boşuna 10 bin çekirdekli cluster yatırımı yapmadı mesela. buradaki çekirdek işte cpu'ya refer ediyor. bu analizler cpu clusterlar ile 600-700 çekirdeklik hesaplama gücüyle 5-6 hafta sürebiliyor.

nvidia'yı son dönemde patlatan işte gpu'ların bu paralel hesaplama gücü oldu

ilk çıkan ticari ürünler her ne kadar 500 kata kadar daha kısa süre dese de, bu analizlerin 5-6 haftadan 2-3 günde yapılabilir hale gelmesi daha çok analizle daha farklı tasarım süreçlerini gözden geçirebilmek demektir ki bu muazzam bir hesaplama gücü artışıdır.

tabii ki nvidia mühendislik hesaplamalarının devasa gücüyle öne çıkmadı. son dönemde giderek yaygınlaşan ai uygulamalarının son derece güçlü paralel hesaplama yöntemlerine ihtiyaç duyması ve nvidia'nın gpu'larıyla bu alanda öne çıkmasıyla oldu.

şu an ai vibe'ı sönerse nvidia hisse değerinde gerileme gerçekleşebilir. söneceğini ben pek zannetmiyorum ama o ayrı. fakat bu olsa bile nvidia yine başka bir hesaplama ihtiyacı yüksek olan alanda birden yeniden patlayabilir. çünkü kesin olan şey şu ki teknoloji geliştikçe daha güçlü hesaplama yöntemlerine ihtiyaç duyacak, bu cepte. ikinci gerçek ise paralel hesaplama gücü olarak cpu'ların gpu'larla asla, kata, zinhar, katiyen boy ölçüşemeyeceğidir.

bu iki gerçekten hareketle, ai dışında hangi gelişmeye muhtaç teknoloji paralel hesaplamaya ihtiyaç duysa nvidia kendine orada dev bir pazar bulma potansiyeline sahiptir diyebilirim. bunun sırrı bence birden fazla sektöre bir anda girme potansiyeli olan teknolojilerdir. mesela ai böyle bir teknolojidir. mühendislik hesaplamalarında gpu paralel hesaplama gücüne olan aşırı yüksek ihtiyaç nvidia gelirlerini bir anda yerinden oynatamaz mesela. neden? çünkü pazar payı belli, ihtiyaç duyacak şirket sayısı belli falan.

bugün yapay zeka olur, yarın makina öğrenmesi olur bilemiyorum nereye evrileceğini fakat bildiğim şey paralel hesaplama gücüne olan ihtiyacımızın sürekli artacağıdır. bu ihtiyacın hangi teknolojiyle her sektöre ihtiyaç şeklinde patlama yapacağını ise bilmiyorum. fakat gpu'ların bu alanda cpu'lara üstünlüğü o kadar yüksek ki nvidia mevcut gpu know-how'ı ile kolay kolay başka bir gpu şirketiyle aradaki açığı kapatamaz.

paralel hesaplama gücünü gpu'ların üzerine taşıyacak teknoloji ise bir gün görürsek quantum computing olacaktır. yıllarca gaz dinamiği derslerinin girişinde temel kuantum fiziğinin ötesine geçmemiş biri olarak quantum enerji düzeyleri, schrödinger dalga denklemi, quantum alan teorisi, quantum elektrodinamiği gibi beyin yakan ama teorik düzeyde kalan onlarca konunun bu teknoloji ile beraber kendine uygulama alanı bulacağını düşünüyorum.

Şöyle bir alternatif görüşle bitirelim

yapay zeka kaynaklı olarak nvdia'nın "yalnızlığının" çok uzun süreceğini zannetmiyorum açıkçası. şu an üniversitelerde insanlar deli gibi geleneksel derin öğrenme algoritmaların nasıl daha ucuza (hesap gücü bakımından) getiririz diye çalışıyor. bu olursa (ki yavaş yavaş da olsa oluyor bkz: https://arxiv.org/abs/2406.02528), nvdia tekrardan "oyun/animasyon" sektöründe yürümek zorunda kalabilir.