Podczas HPE Discover 2024 w Las Vegas, Brett Hanlis, wiceprezes i CMO w Intel mówił o planach Intela w kontekście rozwoju AI, współpracy z HPE czy innowacyjności krzemowej. Intel dostrzega ogromny potencjał AI w przedsiębiorstwach i dąży do uczynienia tej technologii bardziej dostępną, bez konieczności radykalnych zmian infrastrukturalnych. Jak uzyskać szansę na eksperymentowanie i rozwój AI bez nadmiernego ryzyka finansowego?
Oceniając rozwój AI jako kluczowy element przemian technologii i biznesu, Intel angażuje się w demokratyzację mocy obliczeniowej AI.
Kontrybucja Intela do rozwoju ekosystemu AI polega na optymalizacji sprzętu, na przykład poprzez wbudowanie funkcji AI do procesorów Xeon. Z drugiej strony, Intel tworzy także narzędzia open source, takie jak OpenVINO, ułatwiające dostęp do wykorzystania rozwiązań sztucznej inteligencji. Kluczowa jest wreszcie współpraca z partnerami takimi, jak HPE przy tworzeniu rozwiązań łączących AI z istniejącymi systemami. Celem jest wykorzystanie istniejącej infrastruktury czy kompetencji do zaprzęgnięcia AI do pracy w firmach: obniżenie progu wejścia.
Firma inwestuje także w ambitny rozwój innowacji krzemowej, program „Pięć procesów w cztery lata”, mający na celu przyspieszenie cykli innowacji. Jego powodzenie ma zapewnić wprowadzenie technologii opartych na wydajniejszych układach oraz intensyfikacja produkcji w USA, aby zredukować ryzyko związane z łańcuchami dostaw.
Intel obniża próg wejścia
AI to kluczowy element transformacji biznesowej, firmy stają jednak przed wyzwaniami i barierami utrudniającymi wykorzystanie w pełni potencjału sztucznej inteligencji.
Podstawowy i najpowszechniejsze problem, to rozproszone środowisko danych, bezpieczeństwo danych, koszt wdrożenia AI oraz brak odpowiedniej wiedzy. Dane są często przechowywane w różnych systemach i lokalizacjach, co utrudnia ich konsolidację i wykorzystanie w modelach AI. Myśląc o wykorzystaniu AI, firmy muszą ponadto zapewnić kontrolę nad poufnymi informacjami podczas ich przetwarzania w modelach AI. Wysokie koszty sprzętu, takich jak GPU, oraz związane z tym opłaty licencyjne także mogą być barierą dla wielu organizacji. Istotną kwestią jest także konieczność szkolenia zespołów technicznych do obsługi narzędzi AI.
Implementacja AI opiera się na ewolucji, a nie rewolucji
Głównym celem Intela w kontekście tych wyzwań jest demokratyzacja AI poprzez uczynienie zaawansowanych technologii bardziej dostępnymi dla firm o różnej skali działalności, nie tylko dla największych graczy z dużymi budżetami.
Przyszłość AI według Bretta Hanlisa leży w modelach zoptymalizowanych dla specyficznych branży. Swojej szansy Intel upatruje w wykorzystaniu do adaptacji AI istniejącej infrastruktury i systemów oraz zgromadzonej w firmach wiedzy o architekturze i infrastrukturze. Modele można uruchamiać na działających systemach, bez potrzeby kosztownych inwestycji w nowe GPU.
Zamiast wymieniać całą infrastrukturę, można wykorzystać takie istniejące technologie, jak procesory Xeon z wbudowanymi funkcjami AI. Pozwalają one na uruchamianie modeli AI na istniejących serwerach i w centrach danych. Przykładem jest zastosowanie w procesorach funkcji takich jak Advanced Matrix Extensions (AMX), która usprawnia przetwarzanie dużych modeli AI. Bazując na długoletniej współpracy z HPE przy tworzeniu rozwiązań dla firm, Intel planuje uczestniczyć we wspólnych działaniach przy tak rozumianej modernizacji centrów danych i wdrażaniu AI w aplikacjach biznesowych.
Intel rekomenduje zatem implementację AI opartą na ewolucji, a nie rewolucji. Służy temu także wykorzystanie otwartych modeli AI, które są już przetrenowane na ogromnych zbiorach danych, ale mogą być dostosowane do specyficznych potrzeb firm. Sama firma angażuje się w tworzenie otwartego ekosystemu, w oparciu o narzędzia takie jak OpenVINO oraz optymalizację modeli open-source na sprzęcie Intela (dotychczas dostosowano do niej ok. 500 modeli).
RAG pomaga planować skalowanie wdrożenia AI
Intel promuje ponadto strategię łączeniu modeli AI z danymi pochodzącymi bezpośrednio z przedsiębiorstw – Retrieval-Augmented Generation (RAG). Technika polegająca na połączeniu istniejących modeli AI z danymi firmowymi daje świetne wyniki w zastosowaniach do analizy dokumentów, wyszukiwania czy personalizacji obsługi klienta. Tak skrojone
AI może ponadto wspierać zadania takie jak przetwarzanie faktur, analiza ryzyka czy optymalizacja łańcuchów dostaw. Modele generatywne mogą być wykorzystane do tworzenia dynamicznych treści marketingowych, chatbotów czy analiz sentymentu w mediach społecznościowych – pozwalając firmom na personalizację doświadczenia klientów.
Stosując to podejście, firmy mogą zacząć od prostych przypadków użycia (np. ulepszone wyszukiwanie danych lub analiza dokumentów), zamiast angażować się w kosztowne, szeroko zakrojone projekty. Na początek organizacje skupią się na „nisko wiszących owocach” – aby w miarę zdobywania doświadczenia i pomnażania oszczędności realizować coraz bardziej zaawansowane przypadki użycia.
Innowacje w krzemie
Brett Hanlis podkreślił także znaczenie innowacji krzemowych, które Intel wdraża, aby walczyć o pozycję lidera. Firma inwestuje w nowoczesne procesy produkcyjne, nowe technologie tranzystorowe i rozbudowę produkcji w USA. Strategia jest odpowiedzią na wymagania rynku AI, komputerów i centrów danych, ma także uczynić Intela bardziej odpornym na globalne zakłócenia w łańcuchach dostaw.
Intel realizuje ambitny plan wdrażania pięciu nowych procesów technologicznych w ciągu czterech lat. Jest to odpowiedź na przyspieszone cykle innowacji technologicznych związane z AI oraz konkurencją na rynku. Plan ma pozwolić osiągnąć postęp technologiczny, który pozwoli Intelowi nie przegonić konkurencję, co jest częścią strategii „gry ofensywnej”. Intel chce to osiągnąć dążąc do zwiększenia gęstości tranzystorów i poprawy efektywności energetycznej.
W planach jest wdrożenie nowej generacji tranzystorów, opartych na procesie 18A, które mają być najmniejszymi tranzystorami na rynku. Mają one umożliwić produkcję bardziej energooszczędnych i wydajnych urządzeń. Technologie 14A i 18A mają za zadanie dalsze przesunięcie granic wydajności dostarczanych urządzeń. Innowacje krzemowe obejmują także rozwój takich technologii, jak backside power i Gate-all-Around (GAA), pozwalających na dostarczanie procesów produkcyjnych do tworzenia bardziej gęstych i wydajniejszych układów. To zarazem obszar zażartej konkurencji z innymi producentami, jak TSMC.
Chipy będą powstawać w Stanach
Konsolidacja sił produkcyjnych i innowacyjnych ma wzmocnić szanse Intela w tym wyścigu. Intel inwestuje miliardy dolarów w przenoszenie produkcji krzemu do USA, żeby wzmocnić łańcuch dostaw i zredukować uzależnienie od producentów z Azji. Przeniesienie części produkcji do USA jest strategicznym ruchem, przy pomocy którego Intel chce stabilizować podaż krzemu i wspierać rozwój gospodarki USA. Odwrót od outsourcingu produkcji pozwoli też na celu zwiększenie mocy produkcyjnych i realizację ambicji w zakresie innowacji.
Plany wypuszczania kolejnych generacji układów krzemowych co rok mogą powodować tarcia z partnerami, jednak zdaniem Hanlisa, muszą oni dostosowywać się do takiego tempa innowacji. Jedynie ono pozwala Intelowi myśleć o wyprzedzeniu konkurencji.
Jest ponadto zdeterminowane podporządkowaniem rozwoju gospodarczego technologii – swoistej krzemo-ekonomii, „siliconomy”, ponieważ krzem jest wpleciony w niemal każdą dziedzinę współczesnej technologii – od urządzeń osobistych, przez infrastrukturę IT, aż po rozwiązania chmurowe i AI. Innowacje w technologii krzemowej mają kluczowe znaczenie dla dalszego rozwoju przemysłu technologicznego, a Intel zamierza być w jego centrum zarówno pod względem technologii, jak i skali produkcji.
Materiał powstał we współpracy z HPE i INTEL