Alessandro Curioni z IBM o agentach AI i najbliższej przyszłości komputerów kwantowych

itbiznes.pl 5 dni temu
Zdjęcie: ibm


W trakcie wydarzenia IBM Put AI to Work, które odbyło się niedawno w Warszawie, udało nam się przeprowadzić bardzo interesującą rozmowę z Alessandro Curioni, IBM Fellow i wiceprezesem IBM na Europę i Afrykę oraz dyrektorem działu badań i rozwoju IBM na Europę. Rozmowa koncentrowała się na najnowszym rozwoju generatywnej sztucznej inteligencji, opłacalności inwestowania w modele językowe, ekscytacji agentami AI ze strony biznesu i o tym, jak nad nimi zapanować, a także na obecnym stanie rozwoju i najbliższej przyszłości komputerów kwantowych. Zapraszamy do lektury tej niezwykle ciekawej rozmowy.

Paweł Pilarczyk, ITbiznes: Pytanie na rozgrzewkę: czy możesz wyjaśnić swoimi słowami, jaka jest różnica między „zwykłą” generatywną sztuczną inteligencją a agentem AI? Czytelnicy ITbiznes to głównie przedstawiciele świata biznesu poszukujący rozwiązań IT optymalizujących ich operacje. Niekoniecznie są bardzo techniczni. Jak mogą zrozumieć ten termin lub różnicę między agentem AI a generatywną sztuczną inteligencją?

Alessandro Curioni, IBM: To, co wydarzyło się w ciągu ostatnich kilku lat, to fakt, iż po raz pierwszy mieliśmy możliwość tworzenia modeli bezpośrednio z danych, przy minimalnej interwencji człowieka. Maszyny same uczyły się zarówno modelu, jak i najlepszej reprezentacji danych. Umożliwiło to to, co dziś nazywamy generatywną sztuczną inteligencją, ale był to tylko pierwszy krok, ponieważ ta sama technologia pozwala również tworzyć modele w znacznie lepszy i wydajniejszy sposób. To pchnęło wykorzystanie i infuzję sztucznej inteligencji niemal we wszystkim, co robimy. Jedną z zalet jest to, iż zwrot z inwestycji w tworzenie modeli AI w ten sposób jest znacznie wyższy. Możemy więc oczekiwać, iż będzie to kontynuowane w coraz większym stopniu.

Jednocześnie, jeżeli spojrzeć na generatywną sztuczną inteligencję w obszarze modeli językowych (Language Models, LM – przyp. red.), zdajemy sobie sprawę, iż filozofia integracji wszystkiego w dużych i coraz większych modelach nie będzie działać w dłuższej perspektywie. Modele te stają się zbyt ogólne, zbyt podatne na błędy i halucynacje.

Dodatkowo, jeżeli modele są zbyt duże, ich wykorzystanie jest również bardzo kosztowne, ponieważ potrzeba ogromnej mocy obliczeniowej. Nastąpiła więc ewolucja tej technologii, aby przejść od tych ogromnych modeli (Large Language Models, LLM – przyp. red.) mniejszych modeli, znacznie bardziej specyficznych dla danej dziedziny (Small Language Models, SLM – przyp. red.). W ten sposób uzyskuje się znacznie większą dokładność i niższe koszty. Obserwujemy teraz dynamiczny rozwój różnych modeli, wyspecjalizowanych do konkretnych zadań. Wiele z tych modeli jest generatywnych, ale o różnym rozmiarze i z różnymi celami.

Złożoność świata AI ogromnie wzrosła. Dlatego eksperci doszli do wniosku, iż warto jest zacząć wykorzystywać niektóre z tych modeli sztucznej inteligencji jako decydentów, które inne modele należy wprowadzić, aby rozwiązać dane zadanie.

Paweł: AI samodzielnie decyduje, który model AI wybrać do konkretnego zadania?

Alessandro: Nie tylko jaki wybrać model, ale też jak połączyć ze sobą różne modele oraz jakie podjąć decyzje, jak iść naprzód, aby uzyskać ostateczną odpowiedź.

Można to osiągnąć na dwa sposoby. Pierwszy to zbudować ogromny model, który zawiera wszystko. Zadajesz pytanie, a modele działają i dają ci ten wynik, który może być fragmentem tekstu, ale może to być choćby decyzja.

Alessandro Curioni tłumaczy mi przewagi mniejszych modeli językowych nad dużymi (LLM)

Drugi sposób jest taki, iż tworzysz wiele mniejszych, wydajnych, wyspecjalizowanych modeli, z których każdy otrzymuje dane wejściowe i generuje dane wyjściowe, które mogą ostatecznie uruchomić inne modele, a następnie orkiestrując wszystkie te modele razem i wszystkie te fragmenty kodu razem, osiągasz swój wynik.

Czyli albo korzystamy z dużego modelu, który robi wszystko lub sięgamy po znacznie bardziej skalowalny i skuteczny sposób na połączenie mniejszych modeli z tak zwanymi agentami, które są silnikami AI zbudowanym w taki sposób, aby uzyskać ten sam wynik, ale w znacznie bardziej wydajny sposób.

Paweł: A więc agenci łączą różne modele i używają ich jako narzędzi do rozwiązania problemu?

Alessandro: Dokładnie,używają ich jako narzędzi. Ale interesujące jest to, iż sam agent też może być modelem, w dodatku modelem, który jest bardzo wyspecjalizowany. Przykładowo, chcę znaleźć najlepszy sposób dostarczenia towaru wyprodukowanego w określonej części świata do innej części świata. Dokładnie takie pytanie zadaję modelowi. Model rozumie, czego chcę. Rozumie, czym jest jedna część świata i druga część świata. Zadaję pytanie modelom, które są do tego przystosowane i które proponują rozwiązanie. Następnie jest ono integrowane być może już przez inne modele, które przyjmują rozwiązanie i piszą je w sposób wykonywalny, co jest ideą autentycznego przepływu pracy.

Właśnie w tym kierunku ewoluuje sztuczna inteligencja. Jest bardziej efektywna, bardziej ogólna. jeżeli zbudujesz odpowiednie bloki, to z listy wielu ogólnych bloków możesz zaprojektować aplikację, która jest w pełni zautomatyzowana. Automatyzacja jest bardzo wydajna i ostatecznie również bardzo dokładna.

Problemy, które pojawiają się, gdy już to zrobisz, polegają na tym, iż w dzisiejszych czasach mamy eksplozję modeli i eksplozję agentów. Musisz przenosić informacje i dane z jednego z tych agentów do jednego z tych modeli, a potem z powrotem do innych agentów. W dodatku musisz to robić w sposób bezpieczny i godny zaufania. Tak więc złożoność rośnie. System staje się potężniejszy, ale jest też bardziej podatny na błędy, ataki i działania złych aktorów. Dlatego właśnie trzeba było stworzyć coś, co będzie w stanie zorganizować i zaplanować w bezpieczny i skuteczny sposób cały ten skomplikowany mechanizm.

Paweł: Czy ta złożoność różnych modeli i agentów AI nie jest przypadkiem jedną z potencjalnych przeszkód dla korporacji w integracji agentów? Wydają się być przeciążone wszystkimi tymi rozwiązaniami. Czy tak jest?

Alessandro: Jestto zarówno przeszkoda, jak i szansa. Chodzi o to, by znaleźć równowagę między prostotą, bezpieczeństwem i kosztami użytkowania. Możesz zrobić coś, co jest bardzo proste, ponieważ jest to pojedyncze narzędzie, które działa na ogromnym modelu, który rozwiązuje wszystkie twoje problemy. Rozwiązanie to może być jednak zbyt drogie, więc nie możesz sobie na nie pozwolić, a zwrot z inwestycji jest zbyt mały. Dodatkowo, jeżeli zadanie jest niezwykle złożone i zbudowane z wielu elementów, AI może sobie z nim nie poradzić lub rozwiązanie będzie zawierało błędy lub będzie niebezpieczne.

Tak więc znalezienie optymalnego rozwiązania, z odpowiednią warstwą orkiestracji jest tym, czego potrzebuje biznes. Jest wystarczająco proste, bezpieczne i zapewnia zwrot z inwestycji, który jest wystarczająco wysoki, aby rozwiązać problemy.

Paweł: W IBM macie rozwiązania tego problemu, tak?

Alessandro: Tak,mamy rozwiązanie, które stworzyliśmy na samym początku. Gdy rozpoczynała się rewolucja generatywnej AI, stworzyliśmy na początku platformę o nazwie WatsonX, która jest w stanie połączyć dane z modelem i odpowiednim zarządzaniem, tak aby można było zacząć od dowolnego modelu, który jest na zewnątrz, rozszerzyć o dane, śledzić, co się dzieje i zarządzać w bardzo niezawodny sposób. To był pierwszy krok. Następnie pomogliśmy światu zrozumieć, iż mniejsze, uwaga – nie małe! – mniejsze, ale bardziej szczegółowe modele są lepsze niż większe. Stworzyliśmy więc rodzinę modeli językowych Granite, których podstawą jest praca z językiem. Ale mamy też wiele innych modalności, takich jak obrazy, mowa, obrazowanie geoprzestrzenne. To był drugi krok. Trzeci krok, który wykonaliśmy wraz z pojawieniem się AI opartej o agentów to rozwiązanie potrzeby rynkowej zarządzania agentami. Dodaliśmy nową warstwę, którą nazywamy watsonx Orchestrate, która pozostaje na wierzchu i pozwala łączyć i koordynować pracę agentów i modeli, aby uzyskać pożądany rezultat.

Paweł: Mogę to rozumieć tak, iż jest to jakby kontroler dla wszystkich tych rozwiązań?

Alessandro: To taki inteligentny kontroler. Orkiestracja dzięki reguł i przez sztuczną inteligencję jest tym samym, co mieliśmy już w przeszłości. Mamy więc sztuczną inteligencję, która była symboliczna i kierowana przez reguły. Ale mamy też sztuczną inteligencję, która uczy się na podstawie danych i jest bardziej autonomiczna. Tak więc orkiestracja rzeczy stara się być tak dynamiczna, jak to tylko możliwe, aby zarządzać pracą.

Paweł: Niedawno ogłosiliście katalog agentów AI w ramach platformy watsonx. Podobno tych gotowych agentów w katalogu jest już około 150. Jak często firmy mogą po prostu z nich korzystać, a jak często muszą tworzyć własnych od nowa? I jak trudno jest zbudować własnego agenta AI?

Alessandro: zwykle zaczynasz od rodziny agentów, które są przeznaczone do rozwiązywania konkretnych zadań, które są bardzo ogólne. Posiadanie katalogu, z którego można wybrać agenta, następnie go podłączyć, zaaranżować i wykorzystać, jest pierwszym krokiem. Oczywiście są sytuacje, w których potrzebna jest dalsza specjalizacja samego agenta lub modeli, które są potrzebne do dostarczenia rozwiązania. Mamy platformę, która na to pozwala. Naturalnie poziom prostoty wtedy spada.

Oferujemy zestaw technologii, z których każdy może korzystać. jeżeli ich nie używasz, tracisz na produktywności i dokładności tego, co robisz w stosunku do konkurencji. Ale ta technologia jest dostępna dla wszystkich, więc jeżeli wszyscy będą z niej korzystać, pozostaną na tym samym poziomie. jeżeli zaczniesz od tego, a następnie weźmiesz swoje tajne źródła, dane przedsiębiorstwa, swoje doświadczenie i spróbujesz zintegrować je z niektórymi modelami, które ostatecznie są używane przez niektórych agentów, to właśnie tam wprowadzisz swoje zróżnicowanie. Oczywiście wprowadzenie zróżnicowania jest zawsze bardziej złożone. Ale na dłuższą metę znacznie bardziej się opłaci.

Paweł: Jakie są obszary, w których agenci AI w tej chwili naprawdę przodują, gdzie naprawdę rozwiązują problemy? Oraz w jakich obszarach nie jesteśmy jeszcze gotowi na wykorzystanie agentów AI? Czy możesz podać nam jakieś przykłady z życia wzięte?

Alessandro: Powiedziałbym, iż to nie tylko kwestia gotowości technologicznej, to kwestia zwrotu biznesowego. To, co mamy teraz, jest znacznie bardziej skoncentrowane na próbie zwiększenia produktywności i automatyzacji rzeczy, które są bardzo ogólne i używane przez prawie wszystkich. Wyobraźmy sobie przykład pracy w biurze. Przychodzisz do pracy i musisz pracować z trzydziestoma czy czterdziestoma różnymi aplikacjami, które muszą wymieniać dane, aby ze sobą współpracować. Zamiast tego możesz mieć agenta, który dla danego zadania łączy się bezpośrednio ze wszystkimi tymi aplikacjami. To proste, ale przynosi ogromne korzyści. To właśnie tutaj agenci robią dużą różnicę. Albo gdy musisz spróbować połączyć złożonego chatbota, który rozwiązuje konkretne problemy. To są ogólne kategorie, które są związane z produktywnością firmy.

Następnie można przejść do następnego poziomu, który polega na wprowadzeniu sztucznej inteligencji i agentowej sztucznej inteligencji, aby spróbować rozwiązać problemy związane z podstawową działalnością firmy. Wiele podstawowych obszarów działalności jest bardziej złożonych. Wymagają one danych, które są znacznie bardziej specyficzne dla różnych firm i właśnie w tym obszarze jeszcze nie jesteśmy. Ale kiedy już tam dotrzemy, wartość eksploduje na inne sposoby. Jednym z nich jest zwiększenie produktywności operacji. Kolejną rzeczą jest zwiększenie produktywności, zróżnicowania i jakości w rdzeniu. Do tego właśnie zmierzamy.

Paweł: Widzimy teraz mnóstwo zamieszania i hype’u związanego z agentami AI. Wszyscy o nich teraz mówią, wiele firm jest naprawdę podekscytowanych. Ale zaczynają wdrażać pewne rozwiązania, które potem nie działają. W jakim stopniu to agenci AI są przereklamowani, a w jakim faktycznie przydatni?

Alessandro: Innowacje w obszarze agentów AI oraz ich implementacja realizowane są tak szybko, iż trudno jest powiedzieć od razu:to działa, to nie działa. Rzeczywistość jest taka, iż zmieniamy się każdego dnia i dostosowujemy, ponieważ kiedy próbujemy korzystać z agentów AI, widzimy płynące z nich korzyści, a gdy widzimy problem, korygujemy go.

To ciągła ewolucja. Zaczęliśmy od wielkich modeli. Zeszliśmy do mniejszych. Wprowadziliśmy orkiestrację. A teraz jeszcze mamy agentów. Wszystko to ewoluowało w ciągu kilku lat. Ale wracając do Twojego pytania. W IBM próbowaliśmy i wdrażamy wszystkie te rozwiązania jako klient zero, aby zwiększyć naszą własną produktywność. Dzięki temu zaoszczędziliśmy miliard dolarów na wydajności operacyjnej. Staliśmy się więc bardziej wydajni o miliard dolarów. I to jest coś, co widzimy, co jesteśmy w stanie zmierzyć i policzyć.

Oczywiście po drodze pojawiają się pewne problemy, które zamierzamy rozwiązać. Jednym z nich jest to, iż oprócz orkiestracji agentów, gdy wchodzisz w interakcję z modelami, często chcesz dostosować odpowiedź modelu. Prawdopodobnie najlepszym sposobem, najbardziej naturalny dla ludzi jest promptowanie.

Ale z modelami językowym jest wiele problemów. Po pierwsze, nie są niezawodne. Po drugie, są nieprzewidywalne. Wystarczy iż usuniesz jedno słowo z promptu, a otrzymasz inną odpowiedź. To jest dodatkowo niebezpieczne, ponieważ podpowiedzi są łatwe do zaatakowania.

Wreszcie, takie rozwiązanie nie jest w ogóle przenośne. Ponieważ jeżeli masz prompt, który działa w modelu A, to w modelach B lub C ten sam prompt może działać w zupełnie inny sposób. To jest duży problem, który mamy teraz w tej rewolucji AI. Próbujemy rozwiązać ten problem i pracujemy nad tym, próbując przejść od w pełni nieustrukturyzowanego promptowania do takiego, które jest znacznie bardziej ustrukturyzowane, tak jak w przypadku programowania dzięki języka naturalnego maszyny AI. Tworzymy więc coś, co nazywamy generative computing.

To nie jest generatywna sztuczna inteligencja. Generative computing, ponieważ staramy się zbudować środowisko uruchomieniowe, które łączy Twoje potrzeby z wynikiem w przenośny, bezpieczny i niezawodny sposób. Jest to więc kolejny krok w rewolucji AI, nad którą pracujemy.

Paweł: To, co powiedziałeś, odpowiada już po części na moje kolejne pytanie, które chciałem Ci zadać – o halucynacje. Halucynacje w genAI są bardzo dużym problemem dla wielu firm. Zaczynają testować choćby proste chatboty, wpisują w nich prompty i, na co zwróciłeś uwagę, w zależności od konstrukcji promptu lub jednego słowa, którego brakuje, zawsze otrzymujemy inny wynik. Czasami ten wynik jest całkowicie fałszywy. Gdy firmy zdają sobie sprawę, iż otrzymują fałszywy wynik, stwierdzają: to rozwiązanie jest zawodne i nie możemy mu zaufać. Tak więc generative computing to, jak rozumiem, rozwiąże ten problem, ponieważ będziemy otrzymywać zawsze stałe, te same wyniki?

Alessandro: Spróbuje rozwiązać ten problem i to poprzez runtime, ale także za pomocą, jak już mówiłem, mniejszych, ale bardziej specyficznych modeli, ponieważ częścią problemu halucynacji, o którym wspominasz, jest fakt, iż początkowe modele rodzin były tak ogólne, iż wszystko, co wchodziło do środka, wywoływało halucynacje. Podam przykład, który każdy zrozumie. Załóżmy, iż mam model, który integruje wszystkie dane dotyczące chemii, przemysłu farmaceutycznego, biologii, ale także żywienia i kuchni. Słowo przepis jest używane w kuchni. Ale przepis może też określać sposób realizacji reakcji chemicznej.

Gdy teraz zapytasz tak bardzo ogólny model językowy o przepis na potrawę, którą masz ugotować dla teściowej, to model może Ci podpowiedzieć przepis na pizzę z arszenikiem. Powiesz, iż to halucynacja. A ten arszenik może być po prostu od czynnikiem chemicznym. Halucynacje w tej sytuacji pojawiają się z powodu zbyt ogólnej integracji. Tak więc uproszczenie modeli może takie halucynacje znacznie zredukować.

Paweł: Czy model Granite Small, który właśnie ogłosiliście, będzie rozwiązaniem tego problemu?

Alessandro: Tak, to rozwiązanie przynajmniej części tego problemu.

Paweł: Wydaje mi się, iż małe modele językowe rozwiązują też problem bezpieczeństwa. Jak sam powiedziałeś, duże modele wymagają potężnych komputerów, a małe możemy uruchamiać lokalnie na naszych lokalnych maszynach, co pozwala na bezpieczną pracę z poufnymi danymi bez wysyłania ich do chmury.

Alessandro: Można! Małe modele językowe to rozwiązanie wielu problemów. Jednym z problemów jest stronniczość i zanieczyszczenie danymi treningowymi. jeżeli masz model, który rozwijasz w przejrzysty i otwarty sposób, znasz dane, które wprowadziłeś, nie używałeś żadnych danych, które są zanieczyszczone, w efekcie model jest bezpieczniejszy. Rozwiązuje to problem dokładności, ponieważ model jest mniej podatny na halucynacje. Wreszcie, małe modele językowe rozwiązują problem zwrotu z inwestycji, ponieważ wnioskowanie kosztuje znacznie mniej.

Paweł: Przejdźmy do kolejnego tematu, czyli komputery kwantowe. Wiem, iż IBM planuje uruchomić maszynę Quantum System Two w Kraju Basków. Będzie to pierwszy tego typu system zainstalowany w Europie, ponieważ wcześniejszy komputer, Quantum System One, działa na przykład w Niemczech. Teraz planujecie instalację IBM Quantum System Two w San Sebastian. Jakie są pierwsze obszary, w których ten system będzie używany? I czy będzie on dostępny dla wszystkich w Europie, czy tylko dla członków społeczności Kraju Basków?

Alessandro: Dla Twojej wiadomości, mamy już teraz działających ponad 80 maszyn kwantowych w różnych miejscach na świecie.

Paweł: Tak, na całym świecie, ale w Europie jest ich zaledwiekilka.

Alessandro: W Europie mamy ich niewiele, ale mamy kwantowe centrum danych w Ehningen w Niemczech, o którym wspomniałeś. Maszyna ta ma procesor Heron, który jest teraz podstawą całej naszej strategii tworzenia Quantum System Two, superkomputera systemu kwantowego. To najpotężniejszy, najstabilniejszy procesor, jaki mamy i który jest już dostępny w Ehningen. Tak więc wszyscy poza Krajem Basków tworzą własną strategię i współpracę. Ten, który mamy w Ehningen, jest już dostępny dla wszystkich, kto chce korzystać z usługi.

W IBM mamy już gotową mapę drogową dla systemów kwantowych. Tworzymy systemy oparte na chipie Heron, zwanym teraz QPU (Quantum Processing Unit, analogicznie do CPU – Central Processing Unit – przyp. red.), który za każdym razem staje się bardziej niezawodny. Kilka dni temu ogłosiliśmy trzecią wersję procesora Heron, który ma najniższy odsetek błędów w historii wykorzystania chipu w operacjach bramek dwukubitowych. Ten odsetek to mniej niż 10 do potęgi -4. Oznacza to, iż można wykonać prawie 10 000 operacji, zanim pojawi się błąd. Komputery kwantowe zaczynają być coraz bardziej użyteczne w prawdziwych zastosowaniach, które przyniosą przewagę – tak zwaną przewagę kwantową (quantum advantage). Oznacza ona naprawdę przewagę w biznesie lub nauce. W konkretnym problemie, którego nie można rozwiązać dzięki samego klasycznego komputera. Takie problemy trzeba próbować rozwiązywać klasycznie i kwantowo.

Ponieważ w IBM mamy mapę drogową, więc wiemy, dokąd zmierzamy i kiedy osiągniemy jakiś poziom. Możemy powiedzieć, iż do 2026 roku, czyli już w przyszłym roku, będziemy mieli pierwszą aplikację, w której naprawdę zademonstrujemy tę kwantową przewagę dla biznesu i nauki. A w 2030 roku będziemy mieli pierwszy odporny na błędy komputer kwantowy w skali, która umożliwi naprawdę transformacyjną moc kwantową. Wiesz, gdzie w pierwszej kolejności uzyskamy przewagę kwantową? Pierwszym obszarem jest symulacja natury. Czyli symulowanie cząsteczek chemicznych i atomów. To będzie pierwsze zastosowanie. Drugim obszarem, w którym uzyskamy przewagę, będzie optymalizacja globalna, logistyka, rynki akcji itp. Trzecie to szersze obszary problemów matematycznych, które obejmują również zdolność do kwantowego uczenia maszynowego.

Paweł: Czy macie jakieś plany, aby w przyszłości zainstalować komputery kwantowe także w Polsce?

Alessandro: Mamy plany dalszego rozwoju naszego ekosystemu w Stanach Zjednoczonych, Europie, Azji i Afryce. I zdecydowanie Polska jest krajem, który ze względu na swój własny ekosystem badawczy, umiejętności, które posiada, bardzo dobrze nadaje się do rozwoju lokalnego ekosystemu kwantowego, który mógłby ostatecznie przekształcić się w kolejną „Dolinę Krzemową”. Taką mamy nadzieję.

Paweł: Powiedziałeś, iż przewaga kwantowa będzie dotyczyła obliczeń cząsteczek chemicznych lub symulacji natury. A co ze sztuczną inteligencją? Ponieważ jest to jeden z obszarów, co do którego wiele sobie obiecujemy, na przykład w kwestii trenowania AI. Jakie zastosowania mogą mieć komputery kwantowe w obszarze sztucznej inteligencji?

Alessandro: Jest wiele opracowań w tej dziedzinie, zwłaszcza w dziedzinie kwantowego uczenia maszynowego. Mówiłem najpierw o molekułach, potem o optymalizacji, a wreszcie o problemach matematycznych, które obejmują również interfejs między obliczeniami kwantowymi a sztuczną inteligencją. Wierzę, iż synergia między tymi dwoma światami jest wciąż do odkrycia. Mam wrażenie, iż komputery kwantowe staną się bardzo przydatne do znajdowania ukrytych struktur lub połączeń w małych, ale złożonych zbiorach danych. To jest to, czego w tej chwili sztuczna inteligencja nie jest w stanie zrobić. w tej chwili sztuczna inteligencja opiera się na statystykach. jeżeli coś wydarzyło się tylko raz i jest bardzo ukryte, to nie będzie działać ze standardowymi technikami AI. Tu właśnie mogą pomóc komputery kwantowe.

Paweł: Zastanawiam się, czy obliczenia kwantowe pomogą nam zrozumieć, co dzieje się w ukrytej warstwie sztucznych sieciach neuronowych. w tej chwili nie wiemy, co się tam dokładnie dzieje, jak dobierane są wagi synaps łączących sztuczne neurony. Jak myślisz?

Alessandro: Możesz mieć rację, ale oczywiście wchodzimy tu już w spekulacje. Jedną rzeczą, którą mogę ci powiedzieć i którą opublikowaliśmy, są białe księgi dotyczące problemów, które już badamy, na przykład zastosowanie komputerów kwantowych w fizyce wysokich energii. Kiedy przeprowadza się eksperymenty w fizyce wysokich energii, tak jak robią to w CERN, tam mają tryliony zdarzeń i szukają pojedynczej trajektorii, która wyjaśnia coś, nad czym pracujemy. Wierzymy, iż komputery kwantowe mogą przynieść zdolność do znalezienia tej osobliwości znacznie lepiej niż komputery klasyczne.

To samo może dotyczyć wielu różnych dziedzin. Także, jak powiedziałeś, sieci neuronowych, nauk przyrodniczych, materiałoznawstwa i tak dalej. Znalezienie tajnej korelacji, której nikt nie jest w stanie dostrzec.

Paweł: Czyli nadchodzi prawdziwa rewolucja.

Alessandro: Tak, to będzie prawdziwa rewolucja.

Paweł: I jesteśmy naprawdę blisko tego, aby ten system był niezawodny. Liczba błędów jest naprawdę niewielka, ale błędy w komputerach kwantowych przez cały czas występują. Ale rozmawiałem z Piotrem Biskupskim (Advisory Technology Engineer w IBM), który zapowiedział, iż w 2027 roku IBM pokaże komputerowy kwantowy, który będzie bezbłędny. Już w 2027 roku!

Alessandro: Tak, chociaż ja bym raczej celował w koniec dekady. Z jednej strony mówimy o bezbłędności. Z drugiej chodzi o bezbłędność w skali, która jest transformacyjna. Nastawiajmy się raczej na koniec tej dekady, czyli rok 2029 lub 2030, kiedy bezbłędność będziemy mogli skalować tak, by była naprawdę transformacyjna.

Paweł: To niezwykle interesujące, Alessandro, o czym mówisz. Bardzo dziękuję Ci za fascynujące rozmowę.

Alessandro: Również dziękuję!

Idź do oryginalnego materiału