Yapay nöral ağlar, finanstan insan kaynaklarına ve sağlık hizmetlerine kadar oldukça geniş bir uygulama skalasında kullanılan geniş dil modelleri de dahil olmak üzere, yapay zekâ alanındaki atılımlara güç veriyor. Ancak bu ağlar aynı zamanda, mühendislerin ve bilim insanlarının iç işleyişini anlamakta zorlandıkları birer kara kutu olmaya da devam ediyor. Fakat işler değişiyor, Kaliforniya San Diego Üniversitesi'nden veri ve bilgisayar bilimcileri önderliğinde bir ekip, yapay nöral ağların aslında nasıl öğrendiğini adeta gözler önüne serdi.
Araştırmacılar, istatiksel analizde kullanılan bir formülün, ChatGPT'nin öncüsü olan GPT-2 gibi yapay nöral ağların verilerdeki ilişkili kalıpları nasıl öğrendiği hakkında basitleştirilmiş bir matematiksel açıklama sağladığını keşfettiler. Bu formül aynı zamanda yapay nöral ağların tahminde bulunmak için söz konusu ilişkili kalıpları nasıl kullandığını da açıklıyor. UC San Diego Bilgisayar Bilimleri ve Mühendisliği bölümünde doktora öğrencisi olan ve çalışmanın eş-başyazarı olan Daniel Beaglehole, durumu şöyle açıklıyor: