Firma produkująca układy scalone AI ogłosiła swoje rozwiązanie
Jul 23, 2024
Zostaw wiadomość
Ujawniono, że startup LeapMind zajmujący się produkcją półprzewodników ze sztuczną inteligencją zostanie rozwiązany 31 lipca 2024 r.
Soichi Matsuda, dyrektor i dyrektor generalny firmy, powiedział w e-mailu do zainteresowanych stron: „Uważamy, że aby faktycznie korzystać ze sztucznej inteligencji, musimy brać pod uwagę zarówno oprogramowanie, jak i sprzęt, a poza tym jest bardzo mało takich firm”. „Takie pomysły są na całym świecie, więc stale jesteśmy zmuszani do myślenia, że są wartościowe, ale jesteśmy bardzo rozczarowani, że jeszcze nie udało nam się udowodnić ich wartości”, wyjaśnia, że zdecydowali się to zrobić. Dobrowolnie rozwiązać firmę, gdy nadal ma gotówkę i depozyty, aby zapobiec ryzyku niewypłacalności.
Od sierpnia Spółka planuje rozpocząć standardowe postępowanie likwidacyjne. Wówczas pan Matsuda będzie pełnić funkcję likwidatora przedstawicielskiego.
LeapMind rozpoczyna prace nad nowymi układami AI
Według oficjalnej strony internetowej firmy społeczeństwo nieustannie się zmienia wraz z postępem technologicznym. Szybkie innowacje w sprzęcie i rozprzestrzenianie się infrastruktury umożliwiły gromadzenie i wykorzystywanie dużych ilości danych. Dzięki praktycznemu zastosowaniu uczenia maszynowego dokładność analizy wzrosła, a wykorzystanie danych stało się bardziej znajome. Przepływ cykli danych, tj. lepsze dane generowane przez urządzenia, które stają się inteligentniejsze dzięki uczeniu maszynowemu, stanie się szybszy niż kiedykolwiek wcześniej, czyniąc życie ludzi wygodniejszym.
LeapMind była jedną z pierwszych firm, która przewidziała taką przyszłość i od 2012 r. prowadzi działalność opartą na uczeniu maszynowym.
LeapMind powiedział, że możliwości techniczne i wizja firmy zostały wysoko ocenione przez wiele firm i organizacji, a firma uczestniczyła w wielu projektach wykorzystujących uczenie maszynowe, ale niestety niewiele przypadków zostało przełożonych na implementację społeczną. Istnieją dwa problemy. Pierwszym jest zbudowanie praktycznych modeli uczenia maszynowego. Aby wykorzystać uczenie maszynowe do rozwiązania dotychczas nierozwiązywalnych zadań, musimy opracować wysokiej jakości modele uczenia maszynowego. Drugim jest środowisko obliczeniowe, które umożliwia rzeczywiste uruchomienie modeli uczenia maszynowego. Nie ma jasnego urządzenia, które pozwalałoby mu faktycznie działać przy ograniczonym użyciu, takim jak na krawędzi.
Aby poprawić społeczeństwo poprzez wykorzystanie urządzeń do uczenia maszynowego, LeapMind uważa, że firmy muszą pokonać dwa wyzwania. Kontynuując stawianie czoła klientom i problemom w dobrej wierze z kolegami o różnych zestawach umiejętności, byliśmy w stanie rozwiązać problemy na dwa sposoby: „opracowując wysokiej jakości modele uczenia maszynowego” i „opracowując szybki, wydajny sprzętowy IP” „Wpadłem na odpowiedź.
Pracując zarówno nad oprogramowaniem, jak i nad sprzętem, możemy sprawić, że niemożliwe stanie się możliwe. Ta przyszłość jest w zasięgu ręki. Wierzymy, że dostarczając światu kluczowe technologie przyszłości, możemy stworzyć bardziej humanitarny sposób życia.
W oparciu o te informacje i rozważania firma LeapMind ogłosiła w październiku ubiegłego roku, że będzie rozwijać nowe układy scalone AI, aby przyspieszyć przetwarzanie obliczeniowe modeli AI i osiągnąć wiodącą w branży relację kosztów do wydajności.
Twierdzą, że ze względu na niedawny wzrost rozmiaru i złożoności obliczeniowej modeli AI, w tym modeli języka na dużą skalę (LLM), koszt szkolenia najnowocześniejszych modeli AI znacznie wzrósł w porównaniu do sytuacji sprzed 10 lat. Ten rosnący koszt stanowi główne wąskie gardło w rozwoju AI.
Aby stworzyć dobry model AI, do obliczeń równoległych wymagana jest duża liczba procesorów. Zapewnienie dużej liczby procesorów wymaga dużego budżetu. Jeśli możesz użyć niedrogiego procesora, możesz opracować lepsze modele AI nawet przy tym samym budżecie. Innymi słowy, cechy procesora wymagane do uczenia się AI zmieniają się z wydajności absolutnej na wydajność cenową.
W świetle tych okoliczności LeapMind rozpoczął opracowywanie nowych półprzewodników procesorów (zwanych dalej „chipami AI”) do uczenia się i wnioskowania AI, stosując technologię, którą zgromadziliśmy w rozwoju akceleratorów krawędziowych AI. Nowy chip AI koncentruje się na uczeniu się modelu AI i wnioskowaniu, z docelową wydajnością obliczeniową 2 PFLOPS (petaflops) i 10-krotnie wyższą ceną/wydajnością niż GPU o porównywalnej wydajności. Oczekuje się, że produkt zacznie być wysyłany najpóźniej do 2025 r.
Według doniesień nowy układ AI ma następujące cechy: Zaprojektowany do uczenia się i wnioskowania modeli AI · Nacisk na wyrażenia niskobitowe, takie jak sterowniki i kompilatory Open Source FP8 Twierdzą, że jeśli uczenie się i wnioskowanie modeli AI zostaną rozpatrzone jako zadania obliczeniowe, mają one następujące cechy: · Mnożenie macierzy jest wąskim gardłem obliczeniowym, łatwym do paralelizacji i mającym niewiele rozgałęzień warunkowych.
LeapMind podkreśla, że firma nie ma na celu poprawy wydajności komputerów ogólnego przeznaczenia, ale wykorzystuje powyższe funkcje, aby być specjalnie zaprojektowanymi do uczenia się i rozumowania modeli AI. Na przykład, ponieważ w programie jest niewiele rozgałęzień warunkowych, liczbę tranzystorów można zmniejszyć, pomijając jednostkę przewidywania rozgałęzień.
Powodem podkreślania wyrażeń niskiego poziomu, takich jak fp8, jest to, że ich zdaniem wąskim gardłem obliczeniowym modeli AI jest mnożenie macierzy, które obejmuje wiele mnożenia i dodawania. Mnożniki mają tendencję do bycia dużymi obwodami, ale używając typu danych o mniejszej szerokości bitowej niż wcześniej, takiego jak FP8, można zmniejszyć liczbę wymaganych tranzystorów. Ponadto, ponieważ przetwarzane dane są małe, możliwe jest efektywne wykorzystanie przepustowości pamięci DRAM, która stała się wąskim gardłem w ostatnich latach.
Jeśli chodzi o sterowniki i kompilatory typu open source, dzieje się tak, ponieważ opracowywanie modeli AI wymaga zaawansowanego stosu oprogramowania, którego nie może zapewnić pojedyncza firma. Istnieje już ekosystem oprogramowania typu open source obejmujący wiele firm, a aby być częścią tego ekosystemu, ważne jest dołączenie do społeczności jako oprogramowanie typu open source.
W ramach programu LeapMind firma będzie ujawniać w jak największym stopniu specyfikacje sprzętowe oraz udostępniać oprogramowanie, takie jak sterowniki i kompilatory, na podstawie licencji zgodnej ze standardem OSI.
Wyślij zapytanie




