Ana Sayfa Haberler AI chatbots neden bu kadar çok enerji kullanıyor?

AI chatbots neden bu kadar çok enerji kullanıyor?

5
0



Yapay zeka sohbet botları büyük miktarda enerji olarak bilinir. Ama neden bu kadar çok elektrik geçiriyorlar? Cevap bu sistemlerin büyük ölçeğinde yatmaktadır.

Son yıllarda, ChatGPT popülerlik kazandı ve yaklaşık 200 milyon kullanıcı her gün başvuruya 1.000 milyondan fazla istek gönderdi, örneğin diğer uygulamaların yanı sıra Google Gemini, GroK veya Powllexity.I.

Bu isteklerin cevaplarının “hiçbir yerden çıkmadığı” görünebilir. Fakat, kendimiziYapay zeka sohbet botları, tüm şehirleri her yıl besleyecek muazzam miktarda enerji tüketir.

2023 yılında, eğitmek ve işlemek için kullanılan veri merkezleri sorumluydu. Tüketimin% 4.4’ü Amerika Birleşik Devletleri’nde elektrik. Küresel olarak, bu merkezler dünya enerji tüketiminin yaklaşık% 1,5’ini temsil etmektedir.

Bu sayıların, AI arayışı arttıkça en azından 2030’a kadar çekim yapması bekleniyor.

Sadece üç yıl öncechatgpt bile yoktu ”diyor Canlı Bilim Alex de Vries-GaoVrije Universiteit Amsterdam’da gelişmekte olan teknolojilerin sürdürülebilirliği araştırmacısı ve dijital trendlerin kasıtsız sonuçlarını ortaya çıkarmaya adanmış bir platform olan Digiconomist’in kurucusu.

“Ve şimdi neredeyse sorumlu olacak bir teknolojiden bahsediyoruz Elektrik tüketiminin yarısı Global Veri Merkezleri ”, Vries-GAO’yu vurgulamaktadır.

Ancak IA chatbotları enerji bakımından bu kadar yoğun yapan nedir? Cevap Bu sistemlerin büyük ölçeği. Özellikle, en çok enerjiyi tüketen iki AI aşaması vardır: eğitim ve çıkarım, açıklayınBir Mosharaf ChowdhuryMichigan Üniversitesi Bilgisayar Bilimcisi.

AI Chatbots’u eğitmek için, büyük dil modelleri (LLMS) alır Büyük Veri Setleriöğrenmenize, standartları tanımanıza ve tahminler yapmanıza izin verir.

Genel olarak, “Ne kadar büyük olursa o kadar iyi“Daha fazla veri emen daha büyük modellerin daha doğru tahminler üretme eğiliminde olan AI eğitiminde.

“Öyleyse, antrenman yapmaya çalışırken olan şey, modellerin şu anda o kadar büyük olması Tek bir grafik işleme ünitesine uymayın; Tek bir sunucuya sığmayın ”diyor Chowdhury.

Ölçek hakkında bir fikir edinmek için çalışmak 2023 yılında Joule’da yayınlanan Vries-Gao’nun Tek bir NVIDIA DGX A100 sunucusu 6,5 kW’a kadar gerektirir güç. Normalde bir LLM eğitimi Birden çok sunucu gerektirirher biri ortalama Haftalar veya aylarca faaliyet gösteren sekiz GPU.

Total değil, ISTO enerji dağlarını tüketir: Openai GPT-4 eğitiminin kullanıldığı tahmin ediliyor 50 gigawatt-saat enerjiSan Francisco şehrini üç gün boyunca beslemek için eşdeğer.

A çıkarım Ayrıca çok fazla enerji tüketir. Bu aşamada bir AI chatbot, öğrendiklerinden sonuçlar çıkarır ve bir isteğe yanıt verir.

Bir LLM’nin yürütülmesine rağmen Eğitildikten sonra çok daha az hesaplama kaynağı gerektirir, Energi’de çıkarım yoğundurChatbots’a gönderilen çok sayıda sipariş nedeniyle.

Openai’ye göre, Temmuz 2025’te, chatgpt kullanıcıları daha fazlasını gönderdi. Günde 2,5 milyar talepyani anında yanıtlar oluşturmak için birden fazla sunucunun kullanıldığı anlamına gelir. Dahil olmak üzere yaygın olarak kullanılan diğer sohbet botlarından bahsetmiyorum bile İkizler Da Googlehangi şirket temsilcilerine göre, yakında Google aramasına erişim için varsayılan seçenek.

Çıkarımda bile, enerji tasarrufu gerçekten mümkün değilChowdhury diyor. Bunlar büyük veri değil. Veri modeli zaten çok büyük, ancak bir onu kullanacak devasa sayıda insan”.

Sonuç: Suçluluk (çok) sizindir.



Kaynak bağlantısı