Przekonaj się sam!
Pozostaw wiadomość, a skontaktuje się z Tobą nasz dedykowany doradca.
Wyślij nam wiadomość
0/10000
Pozostaw wiadomość, a skontaktuje się z Tobą nasz dedykowany doradca.
W świecie, gdzie moc obliczeniowa jest walutą przyszłości, Tesla właśnie wykonała ruch, który może zmienić zasady gry. Firma złożyła wniosek patentowy na "matematyczny trik", który zmusza tanie, 8-bitowe chipy do działania z wydajnością i precyzją drogich, 32-bitowych procesorów. To odkrycie, opisane we wniosku patentowym US20260017019A1, może być kluczem do masowej adopcji autonomicznych pojazdów i robotów humanoidalnych. Warto zaznaczyć, że formalnie jest to wniosek patentowy, a nie przyznany patent. Jednak biorąc pod uwagę imponującą, 89-procentową skuteczność Tesli w uzyskiwaniu patentów, szanse na jego zatwierdzenie są bardzo wysokie.
Jak to możliwe, że samochód pamięta znak stop, którego nie widział od 30 sekund, albo robot humanoidalny utrzymuje idealną równowagę niosąc ciężki, chyboczący się ładunek?
Sekret tkwi w Rotary Positional Encoding (RoPE) – swoistym "GPS-ie umysłu", który pozwala sztucznej inteligencji rozumieć swoje położenie w czasie i przestrzeni, przypisując unikalny kąt obrotu do każdego fragmentu danych.
Zazwyczaj ta matematyka jest zabójcza dla sprzętu. Aby zapobiec "dryfowaniu" tych kątów w chaos, potrzebne są prądożerne, gorące procesory 32-bitowe (chipy obliczające z ekstremalną precyzją dziesiętną).
Tesla znalazła sposób na obejście praw fizyki. Ich nowo ujawniony "MIXED-PRECISION BRIDGE" (Most Mieszanej Precyzji) to matematyczny tłumacz, który pozwala niedrogiemu, energooszczędnemu sprzętowi 8-bitowemu (który zazwyczaj radzi sobie tylko z prostymi, zaokrąglonymi liczbami) wykonywać złożone, 32-bitowe obroty bez gubienia ani jednej współrzędnej.
To przełom, który działa jak "Krzemowy Most", dając Optimusowi i FSD (Full Self-Driving) inteligencję najwyższej próby bez poświęcania zasięgu czy topienia wewnętrznych obwodów. Efektywnie zamienia to wydajny, "budżetowy" sprzęt Tesli w superkomputer na kołach o wysokiej wierności.
W świecie samojezdnych samochodów i robotów humanoidalnych toczy się nieustanna walka między precyzją a mocą. Nowoczesne modele AI, takie jak Transformery, polegają na RoPE, aby zrozumieć, gdzie obiekty znajdują się w sekwencji lub w przestrzeni 3D.
Haczyk polega na tym, że te funkcje trygonometryczne (sinusy i cosinusy) zazwyczaj wymagają 32-bitowej matematyki zmiennoprzecinkowej – wyobraź sobie próbę obliczenia toru lotu z dokładnością do 10 miejsc po przecinku.
Jeśli spróbujesz upchnąć to w standardowych 8-bitowych mnożnikach (INT8) używanych dla szybkości (co jest jak zaokrąglanie wszystkiego do najbliższej liczby całkowitej), błędy szybko się kumulują. Samochód efektywnie ślepnie na drobne szczegóły.
Dla robota takiego jak Optimus, drobny błąd matematyczny oznacza utratę równowagi lub błędne obliczenie odległości do delikatnego przedmiotu. Aby zasypać tę przepaść bez dodawania drogich chipów, Tesla musiała fundamentalnie przemyśleć sposób przepływu danych przez krzem.
Inżynierowie Tesli zdali sobie sprawę, że nie muszą wymuszać wysokiej precyzji w całym procesie. Zamiast tego zaprojektowali "Mixed-Precision Bridge".
Biorą kluczowe kąty używane do pozycjonowania i konwertują je na logarytmy. Ponieważ "zakres dynamiczny" logarytmu jest znacznie mniejszy niż oryginalnej liczby, znacznie łatwiej jest przesłać te dane przez wąski, 8-bitowy sprzęt bez utraty "duszy" informacji.
To trochę jak dehydratacja żywności do transportu; zajmuje mniej miejsca i jest łatwiejsza w obsłudze, ale później można ją idealnie odtworzyć.
Co kluczowe, patent ujawnia, że system nie oblicza tych logarytmów w locie za każdym razem. Zamiast tego pobiera wstępnie obliczone wartości logarytmiczne ze specjalnej "ściągi" (pamięci look-up), aby oszczędzać cykle procesora.
Kiedy 8-bitowy mnożnik (Multiplier-Accumulator lub MAC) kończy swoją pracę, dane wciąż są w "zdehydrowanym" stanie logarytmicznym. Aby przywrócić je do rzeczywistego kąta theta bez ogromnych kosztów obliczeniowych, wysokoprecyzyjna jednostka ALU Tesli wykorzystuje rozwinięcie w szereg Taylora zoptymalizowane metodą Hornera.
To klasyczna sztuczka informatyczna, w której skomplikowane równanie (jak wykładnik) jest rozbijane na prosty łańcuch mnożeń i dodawań.
Dzięki uruchomieniu tego w trzech konkretnych etapach – mnożąc przez stałe takie jak 1/3 i 1/2 na każdym kroku – Tesla może przybliżyć dokładną wartość kąta z 32-bitową precyzją, zużywając ułamek cykli zegara.
Gdy algorytm odzyska kąt, logika wysokiej precyzji generuje Macierz Rotacji (siatkę wartości sinus i cosinus), która blokuje punkty danych w ich poprawnych współrzędnych 3D.
Ta wydajność obliczeniowa robi wrażenie, ale Tesla nie poprzestała tylko na szybszym liczeniu; znaleźli również sposób na podwojenie "prędkości autostradowej" samych danych.
Jeden z najsprytniejszych "hacków" sprzętowych opisanych w patencie to sposób, w jaki Tesla przesyła precyzję 16-bitową przez 8-bitową magistralę. Używają MAC jako szybkiego przeplatacza (interleaver) – efektywnie "policjanta drogowego", który łączy dwa pasy danych.
Bierze dwie 8-bitowe wartości (powiedzmy, współrzędną X i pierwszą połowę logarytmu) i mnoży jedną z nich przez potęgę dwójki, aby przesunąć ją bitowo w lewo ("left-shift").
To efektywnie skleja je w jedno 16-bitowe słowo w rejestrze wyjściowym, pozwalając domenie niskiej precyzji działać jako szybki pakowacz dla wysokoprecyzyjnego ALU do "rozpakowania".
Ten trik skutecznie podwaja przepustowość istniejącego okablowania na chipie bez konieczności fizycznej przebudowy sprzętu. Dzięki tej szybkiej autostradzie danych system może wreszcie zmierzyć się z jednym z największych wyzwań w autonomicznym AI: stałością obiektu (object permanence).
Ostatecznym celem tej wysokoprecyzyjnej matematyki jest rozwiązanie problemu "zapominania". W poprzednich wersjach FSD samochód mógł widzieć znak stop, ale jeśli ciężarówka zasłoniła go na 5 sekund, mógł on "zapomnieć" o jego istnieniu.
Tesla wykorzystuje okno "długiego kontekstu", pozwalając AI patrzeć wstecz na dane sprzed 30 sekund lub więcej.
Jednak w miarę wzrostu "odległości" w czasie, standardowa matematyka pozycyjna zazwyczaj dryfuje. Potok mieszanej precyzji Tesli naprawia to, utrzymując wysoką rozdzielczość pozycyjną, zapewniając, że AI wie dokładnie, gdzie znajduje się ten zasłonięty znak stop, nawet po długim okresie ruchu.
Rotacje RoPE są tak precyzyjne, że znak pozostaje "przypięty" do swojej współrzędnej 3D na mentalnej mapie samochodu. Ale pamiętanie 30 sekund wideo wysokiej wierności tworzy ogromne wąkie gardło pamięciowe.
Aby te 30-sekundowe wspomnienia były użyteczne w czasie rzeczywistym bez wyczerpania pamięci RAM, Tesla optymalizuje KV-cache (Key-Value Cache) – "brudnopis" pamięci roboczej AI.
Sprzęt Tesli radzi sobie z tym, przechowując logarytmy pozycji bezpośrednio w pamięci podręcznej. Zmniejsza to zapotrzebowanie na pamięć o 50% lub więcej, pozwalając Tesli przechowywać dwa razy więcej "historii" (do 128k tokenów) w tej samej ilości RAM.
Co więcej, Tesla wykorzystuje Paged Attention – sztuczkę pożyczoną z systemów operacyjnych. Zamiast rezerwować jeden masywny, ciągły blok pamięci (co jest nieefektywne), dzieli pamięć na małe "strony".
Pozwala to chipowi AI5 dynamicznie alokować przestrzeń tylko tam, gdzie jest to potrzebne, drastycznie zwiększając liczbę obiektów (pieszych, samochodów, znaków), które samochód może śledzić jednocześnie bez lagowania systemu.
Subtelnym, ale krytycznym szczegółem w patencie jest sposób, w jaki Tesla chroni te dane. Po wygenerowaniu przekształconych współrzędnych, są one przechowywane w określonej lokalizacji, która jest dostępna do odczytu dla komponentów niższego szczebla (downstream), ale nie do zapisu.
Co więcej, samo wysokoprecyzyjne ALU nie może odczytywać z tej lokalizacji.
Ta jednokierunkowa "śluza powietrzna" zapobiega przypadkowemu nadpisaniu przez system własnych przeszłych wspomnień lub tworzeniu pętli sprzężenia zwrotnego, które mogłyby spowodować halucynacje AI. Zapewnia to, że "prawda" o pozycji samochodu płynie tylko w jednym kierunku: naprzód, w stronę silnika decyzyjnego.
Nawet przy odchudzonym KV-cache, robot działający godzinami nie może pamiętać wszystkiego w nieskończoność. Tesla zarządza tym za pomocą tokenów Attention Sink.
Transformery mają tendencję do zrzucania "nadmiaru" matematyki uwagi na bardzo pierwsze tokeny sekwencji, więc jeśli Tesla po prostu użyłaby "przesuwnego okna", które usuwa stare wspomnienia, AI straciłoby te tokeny "zlewu" i jego mózg efektywnie by się zawiesił.
Sprzęt Tesli jest zaprojektowany tak, aby "przypinać" te attention sinks na stałe w KV-cache. Utrzymując te matematyczne kotwice stabilnie, podczas gdy reszta okna pamięci przesuwa się do przodu, Tesla zapobiega destabilizacji sieci neuronowej robota podczas długich, wielogodzinnych zmian roboczych.
Dodatkowo, nowa architektura wykorzystuje Native Sparse Acceleration dla Rzadkich Tensorów (Sparse Tensors). W świecie rzeczywistym większość tego, co widzi robot, to "pusta przestrzeń". Chip Tesli przechowuje tylko wartości niezerowe, pomijając "martwą przestrzeń", co podwaja przepustowość i znacznie obniża zużycie energii.
To rozwiązanie wykracza jednak daleko poza autonomię pojazdów i robotykę. Warto zauważyć, że RoPE (Rotary Positional Encoding) to dziś fundament najnowocześniejszych modeli językowych (LLM), takich jak rodzina Llama, Mistral czy Qwen.
Głównym wąskim gardłem w uruchamianiu potężnych modeli (np. klasy 70 miliardów parametrów) na lokalnych urządzeniach nie jest zazwyczaj brak czystej mocy obliczeniowej (FLOPS), ale przepustowość pamięci (Memory Bandwidth). Modele te są "głodne danych" – procesor spędza więcej czasu czekając na dostarczenie danych z pamięci RAM, niż na ich faktycznym przetwarzaniu.
Dzięki zastosowaniu "Mostu Mieszanej Precyzji" i kompresji logarytmicznej, Tesla efektywnie czterokrotnie zwiększa dostępną przepustowość pamięci dla tego typu operacji. Implikacje tego są gigantyczne dla całego sektora AI:
Patent ten pokazuje, że Tesla projektuje swoje chipy nie tylko jako "kierowców", ale jako uniwersalne silniki dla nowej generacji zdecentralizowanej sztucznej inteligencji.
Ten patent to nie tylko "miły dodatek"; to matematyczny warunek wstępny dla całej mapy drogowej sprzętowej Tesli. Bez tego "Mostu Mieszanej Precyzji" równania termiczne i energetyczne dla autonomii następnej generacji po prostu się nie spinają.
Zaczyna się od odblokowania chipu AI5, który ma być 40 razy potężniejszy niż obecny sprzęt. Surowa moc jest bezużyteczna, jeśli przepustowość pamięci działa jak wąskie gardło.
Jest to jeszcze bardziej krytyczne dla Tesli Optimus, gdzie jest to kwestia przetrwania operacyjnego. Robot działa na baterii 2,3 kWh. Standardowe obliczenia GPU 32-bitowe wyczerpałyby tę pojemność w mniej niż 4 godziny. Dzięki hybrydowej logice, Tesla obniża budżet mocy obliczeniowej do poniżej 100W, zapewniając pełną 8-godzinną zmianę.
Wreszcie, "wypalenie" tej matematyki w krzemie uniezależnia Teslę strategicznie od ekosystemu CUDA firmy NVIDIA i umożliwia strategię Dual-Foundry (z Samsungiem i TSMC). Otwiera to również drzwi do przeniesienia światowej klasy modeli wizyjnych na sprzęt tak mały jak hub smart home czy smartfon, przynosząc inteligencję poziomu superkomputera na końcowe urządzenie bez wysyłania prywatnych danych do chmury.
Aleksander
Nie. Opisywany "Mixed-Precision Bridge" to rozwiązanie sprzętowe (hardware), a nie programowe. Wymaga ono fizycznej obecności specjalnych układów logicznych w chipie. Rozwiązanie to najprawdopodobniej zadebiutuje wraz z komputerem nowej generacji – AI5 (HW5).
Chodzi o bilans energetyczny i cieplny. Chipy 32-bitowe zużywają znacznie więcej prądu i generują więcej ciepła. W samochodzie elektrycznym (wpływ na zasięg) a tym bardziej w robocie działającym na baterii (Optimus), każdy wat energii jest na wagę złota. To rozwiązanie daje jakość 32-bitową przy "cenie" energetycznej 8-bitów.
Zdecydowanie nie. Choć infrastruktura FSD jest głównym beneficjentem, patent wyraźnie wskazuje na zastosowania w robotyce (Optimus) oraz szeroko pojętym Edge AI. Umożliwi to uruchamianie zaawansowanych modeli językowych (LLM) na małych urządzeniach domowych bez konieczności łączności z chmurą.
Formalnie jest to wciąż wniosek patentowy. Jednakże, biorąc pod uwagę innowacyjność rozwiązania i historię Tesli, jego ostateczne zatwierdzenie jest bardzo prawdopodobne.
RoPE (Rotary Positional Encoding) to metoda matematyczna, która pozwala modelom AI rozumieć "gdzie" znajdują się dane (np. słowa w zdaniu lub obiekty na drodze) poprzez obracanie ich reprezentacji w przestrzeni. To klucz do utrzymania kontekstu i "pamięci" w nowoczesnych sieciach neuronowych.
To architektura sprzętowa Tesli, która pozwala tanim, energooszczędnym układom 8-bitowym wykonywać skomplikowane obliczenia z precyzją, jakiej normalnie oczekiwalibyśmy od drogich układów 32-bitowych, dzięki zastosowaniu kompresji logarytmicznej i pre-komputacji.
Patent nie wpływa bezpośrednio na ceny rynkowe pamięci RAM, ale sprawia, że system jest "tańszy" w budowie. Dzięki lepszemu wykorzystaniu pamięci (kompresja o 50% i więcej), Tesla może użyć mniej kości RAM do osiągnięcia tego samego efektu, co obniża koszt produkcji całego komputera AI.

Dyrektor ds. Technologii w SecurHub.pl
Doktorant z zakresu neuronauki poznawczej. Psycholog i ekspert IT specjalizujący się w cyberbezpieczeństwie.
Czy sztuczna inteligencja może mieć traumę? Odkrywamy fascynujące i niepokojące wyniki eksperymentu, w którym algorytmy poddano sesjom terapeutycznym. Wynik? Syntetyczna psychopatologia.
Wszyscy „czują vibe", ale nikt nie czyta kodu. Analizujemy zjawisko Vibe Codingu, plagę Slopsquattingu i to, jak AI po cichu degraduje bezpieczeństwo naszych aplikacji.
Zapomnij o prostym tunelowaniu. W świecie, gdzie sztuczna inteligencja czyta pakiety jak książkę, a switche sieciowe same korelują ataki, prywatność wymaga zmiany paradygmatu.
Ładowanie komentarzy...