{"id":46252,"date":"2024-09-04T14:05:10","date_gmt":"2024-09-04T14:05:10","guid":{"rendered":"https:\/\/fabricegrinda.com\/?p=46252"},"modified":"2024-09-05T14:50:32","modified_gmt":"2024-09-05T14:50:32","slug":"fabrice-ai-techniczna-podroz","status":"publish","type":"post","link":"https:\/\/grinda.org\/pl\/fabrice-ai-techniczna-podroz\/","title":{"rendered":"Fabrice AI: Techniczna podr\u00f3\u017c"},"content":{"rendered":"\n<p>Jak wspomnia\u0142em w <a href=\"https:\/\/fabricegrinda.com\/pl\/przedstawiamy-fabrice-ai\/\" data-type=\"link\" data-id=\"https:\/\/fabricegrinda.com\/introducing-fabrice-ai\/\" target=\"_blank\" rel=\"noreferrer noopener\">poprzednim<\/a> po\u015bcie, rozw\u00f3j <a href=\"https:\/\/fabriceai.fabricegrinda.com\/\" target=\"_blank\" rel=\"noreferrer noopener\">Fabrice AI<\/a> okaza\u0142 si\u0119 o wiele bardziej z\u0142o\u017cony ni\u017c oczekiwano, zmuszaj\u0105c mnie do zbadania wielu r\u00f3\u017cnych podej\u015b\u0107.<\/p>\n\n<p><strong>Podej\u015bcie pocz\u0105tkowe: Llama Index &#8211; wyszukiwanie wektorowe<\/strong><\/p>\n\n<p>Moja pierwsza pr\u00f3ba ulepszenia zdolno\u015bci wyszukiwania Fabrice AI polega\u0142a na wykorzystaniu indeksu Llama do wyszukiwania wektorowego.\nKoncepcja by\u0142a prosta: pobra\u0107 tre\u015bci z mojego bloga, przekonwertowa\u0107 je na dokumenty Langchain, a nast\u0119pnie przekszta\u0142ci\u0107 je w dokumenty Llama.\nTe dokumenty Llama by\u0142yby nast\u0119pnie przechowywane w indeksie wektorowym, umo\u017cliwiaj\u0105c mi wyszukiwanie w tym indeksie odpowiednich informacji.  <\/p>\n\n<p>Gdy jednak zacz\u0105\u0142em testowa\u0107 system, okaza\u0142o si\u0119, \u017ce takie podej\u015bcie nie przynosi oczekiwanych rezultat\u00f3w.\nW szczeg\u00f3lno\u015bci, gdy zadawa\u0142em systemowi pytania kontekstowe, takie jak &#8222;Jakie s\u0105 najwi\u0119ksze b\u0142\u0119dy pope\u0142niane przez za\u0142o\u017cycieli rynku?&#8221;, sztuczna inteligencja nie dostarcza\u0142a znacz\u0105cych odpowiedzi.\nZamiast pobiera\u0107 zniuansowane tre\u015bci, o kt\u00f3rych wiedzia\u0142em, \u017ce s\u0105 osadzone w danych, zwraca\u0142a nieistotne lub niekompletne odpowiedzi.  <\/p>\n\n<p>Ta pocz\u0105tkowa pora\u017cka sk\u0142oni\u0142a mnie do ponownego rozwa\u017cenia mojego podej\u015bcia.\nZda\u0142em sobie spraw\u0119, \u017ce samo przechowywanie tre\u015bci w indeksie wektorowym nie wystarczy; mechanizm wyszukiwania musia\u0142 zrozumie\u0107 kontekst i niuanse zadawanych pyta\u0144.\nTa \u015bwiadomo\u015b\u0107 by\u0142a pierwsz\u0105 z wielu lekcji, kt\u00f3re ukszta\u0142towa\u0142y ewolucj\u0119 Fabrice AI.  <\/p>\n\n<p><strong>Przechowywanie wiedzy: Przechowywanie i odzyskiwanie dokument\u00f3w MongoDB<\/strong><\/p>\n\n<p>Maj\u0105c na uwadze ograniczenia podej\u015bcia Llama Index, nast\u0119pnie zbada\u0142em przechowywanie dokument\u00f3w Llama w MongoDB.\nElastyczny schemat MongoDB i struktura zorientowana na dokumenty wydawa\u0142y si\u0119 obiecuj\u0105cym rozwi\u0105zaniem do zarz\u0105dzania r\u00f3\u017cnymi rodzajami tre\u015bci, kt\u00f3re gromadzi\u0142em przez lata. <\/p>\n\n<p>Plan zak\u0142ada\u0142 stworzenie bardziej dynamicznego i responsywnego \u015brodowiska wyszukiwania.\nJednak to podej\u015bcie szybko napotka\u0142o problemy.\nFunkcja wyszukiwania, kt\u00f3ra mia\u0142a by\u0107 bardziej niezawodna, nie dzia\u0142a\u0142a zgodnie z oczekiwaniami.\nZapytania, kt\u00f3re powinny zwraca\u0107 odpowiednie dokumenty, zamiast tego nie dawa\u0142y \u017cadnych wynik\u00f3w lub zawiera\u0142y nieistotne tre\u015bci.   <\/p>\n\n<p>To niepowodzenie by\u0142o frustruj\u0105ce, ale podkre\u015bli\u0142o r\u00f3wnie\u017c kluczow\u0105 lekcj\u0119: metoda przechowywania jest tak samo wa\u017cna jak strategia wyszukiwania.\nZacz\u0105\u0142em rozwa\u017ca\u0107 inne opcje, takie jak wykorzystanie MongoDB Atlas do wyszukiwania wektorowego, kt\u00f3re potencjalnie mog\u0142oby zapewni\u0107 precyzj\u0119 i skalowalno\u015b\u0107, kt\u00f3rych potrzebowa\u0142em.\nJednak zanim zdecydowa\u0142em si\u0119 na t\u0119 alternatyw\u0119, chcia\u0142em zbada\u0107 inne podej\u015bcia, aby ustali\u0107, czy mo\u017ce istnie\u0107 bardziej skuteczne rozwi\u0105zanie.  <\/p>\n\n<p><strong>Pobieranie metadanych i sklep z wektorami: Poszukiwanie specyfiki<\/strong><\/p>\n\n<p>Jedn\u0105 z kolejnych dr\u00f3g, kt\u00f3re zbada\u0142em, by\u0142o u\u017cycie narz\u0119dzia do pobierania metadanych w po\u0142\u0105czeniu z magazynem wektorowym.\nIde\u0105 tego podej\u015bcia by\u0142o skategoryzowanie ogromnej ilo\u015bci informacji w Fabrice AI, a nast\u0119pnie pobranie odpowiedzi na podstawie tych kategorii.\nStrukturyzuj\u0105c dane za pomoc\u0105 metadanych, mia\u0142em nadziej\u0119 poprawi\u0107 zdolno\u015b\u0107 sztucznej inteligencji do udzielania konkretnych, ukierunkowanych odpowiedzi.  <\/p>\n\n<p>Metoda ta mia\u0142a jednak r\u00f3wnie\u017c swoje ograniczenia.\nCho\u0107 z pozoru wydawa\u0142a si\u0119 obiecuj\u0105ca, sztuczna inteligencja z trudem udziela\u0142a dok\u0142adnych odpowiedzi na wszystkie rodzaje zapyta\u0144.\nNa przyk\u0142ad, gdy zapyta\u0142em: &#8222;Czy autor jest optymist\u0105?&#8221;.\nSystem nie zinterpretowa\u0142 pytania w kontek\u015bcie odpowiedniej tre\u015bci.\nZamiast zapewni\u0107 wnikliw\u0105 analiz\u0119 opart\u0105 na metadanych, albo zwraca\u0142 niejasne odpowiedzi, albo nie udziela\u0142 ich wcale.    <\/p>\n\n<p>To podej\u015bcie nauczy\u0142o mnie cennej lekcji na temat znaczenia kontekstu w sztucznej inteligencji.\nNie wystarczy po prostu kategoryzowa\u0107 informacje; sztuczna inteligencja musi r\u00f3wnie\u017c rozumie\u0107, w jaki spos\u00f3b te kategorie wsp\u00f3\u0142dzia\u0142aj\u0105 i nak\u0142adaj\u0105 si\u0119 na siebie, tworz\u0105c sp\u00f3jne zrozumienie tre\u015bci.\nBez tego dog\u0142\u0119bnego zrozumienia nawet najbardziej wyrafinowane metody wyszukiwania mog\u0105 okaza\u0107 si\u0119 niewystarczaj\u0105ce.  <\/p>\n\n<p><strong>Strukturyzacja wiedzy: SummaryTreeIndex<\/strong><\/p>\n\n<p>Kontynuuj\u0105c udoskonalanie Fabrice AI, eksperymentowa\u0142em z tworzeniem SummaryTreeIndex.\nPodej\u015bcie to mia\u0142o na celu podsumowanie wszystkich dokument\u00f3w w formacie drzewa, umo\u017cliwiaj\u0105c sztucznej inteligencji poruszanie si\u0119 po tych podsumowaniach i wyszukiwanie istotnych informacji w oparciu o struktur\u0119 tre\u015bci. <\/p>\n\n<p>Pomys\u0142 polega\u0142 na tym, \u017ce podsumowuj\u0105c dokumenty, sztuczna inteligencja mog\u0142a szybko zidentyfikowa\u0107 kluczowe punkty i odpowiedzie\u0107 na zapytania zwi\u0119z\u0142ymi, dok\u0142adnymi informacjami.\nJednak metoda ta napotka\u0142a r\u00f3wnie\u017c powa\u017cne wyzwania.\nSztuczna inteligencja mia\u0142a trudno\u015bci z udzielaniem znacz\u0105cych odpowiedzi na z\u0142o\u017cone zapytania, takie jak &#8222;Jak podejmowa\u0107 wa\u017cne decyzje w \u017cyciu?&#8221;.\nZamiast czerpa\u0107 z bogatych, zniuansowanych tre\u015bci przechowywanych w podsumowaniach, odpowiedzi AI by\u0142y cz\u0119sto p\u0142ytkie lub niekompletne.   <\/p>\n\n<p>To do\u015bwiadczenie uwypukli\u0142o trudno\u015b\u0107 w r\u00f3wnowa\u017ceniu szeroko\u015bci i g\u0142\u0119boko\u015bci w sztucznej inteligencji.\nPodczas gdy podsumowania mog\u0105 zapewni\u0107 og\u00f3lny przegl\u0105d, cz\u0119sto brakuje im szczeg\u00f3\u0142owego kontekstu potrzebnego do udzielenia odpowiedzi na bardziej z\u0142o\u017cone pytania.\nZda\u0142em sobie spraw\u0119, \u017ce ka\u017cde skuteczne rozwi\u0105zanie b\u0119dzie musia\u0142o integrowa\u0107 zar\u00f3wno szczeg\u00f3\u0142owe tre\u015bci, jak i podsumowania wysokiego poziomu, pozwalaj\u0105c sztucznej inteligencji czerpa\u0107 z obu w razie potrzeby.  <\/p>\n\n<p>Dlatego w wersji Fabrice AI, kt\u00f3ra jest obecnie dost\u0119pna, najpierw podaj\u0119 podsumowanie odpowiedzi, zanim przejd\u0119 do bardziej szczeg\u00f3\u0142owych informacji.<\/p>\n\n<p><strong>Poszerzanie horyzont\u00f3w: Indeks wykresu wiedzy<\/strong><\/p>\n\n<p>Uznaj\u0105c ograniczenia poprzednich metod, zwr\u00f3ci\u0142em si\u0119 ku bardziej wyrafinowanemu podej\u015bciu: indeksowi grafu wiedzy.\nPodej\u015bcie to polega\u0142o na konstruowaniu grafu wiedzy z nieustrukturyzowanego tekstu, umo\u017cliwiaj\u0105c sztucznej inteligencji anga\u017cowanie si\u0119 w zapytania oparte na encjach.\nCelem by\u0142o stworzenie bardziej dynamicznego i wzajemnie powi\u0105zanego zrozumienia tre\u015bci, co pozwoli\u0142o sztucznej inteligencji Fabrice skuteczniej odpowiada\u0107 na z\u0142o\u017cone, kontekstowe pytania.  <\/p>\n\n<p>Pomimo swoich obietnic, indeks Knowledge Graph napotka\u0142 r\u00f3wnie\u017c znacz\u0105ce przeszkody.\nSztuczna inteligencja mia\u0142a trudno\u015bci z uzyskaniem dok\u0142adnych wynik\u00f3w, szczeg\u00f3lnie w przypadku zapyta\u0144, kt\u00f3re wymaga\u0142y g\u0142\u0119bokiego zrozumienia kontekstu.\nNa przyk\u0142ad na pytanie &#8222;Jakie s\u0105 uczciwe wyceny seed\u00f3w i serii A?&#8221; sztuczna inteligencja ponownie nie udzieli\u0142a trafnej odpowiedzi, podkre\u015blaj\u0105c trudno\u015b\u0107 integracji nieustrukturyzowanego tekstu w sp\u00f3jny graf wiedzy.  <\/p>\n\n<p>Podej\u015bcie to, cho\u0107 ostatecznie nieudane, dostarczy\u0142o wa\u017cnych informacji na temat wyzwa\u0144 zwi\u0105zanych z wykorzystaniem graf\u00f3w wiedzy w sztucznej inteligencji.\nZ\u0142o\u017cono\u015b\u0107 danych i potrzeba precyzyjnego kontekstu oznacza\u0142y, \u017ce nawet dobrze skonstruowany graf wiedzy m\u00f3g\u0142 mie\u0107 trudno\u015bci z dostarczeniem po\u017c\u0105danych wynik\u00f3w.\nKolejn\u0105 wad\u0105 Knowledge Graph Index by\u0142a jego niska pr\u0119dko\u015b\u0107.\nCzas odpowiedzi w celu uzyskania powi\u0105zanych dokument\u00f3w by\u0142 bardzo wysoki w por\u00f3wnaniu do indeksu wektorowego.   <\/p>\n\n<p><strong>Ponowna ocena danych: Gemini<\/strong><\/p>\n\n<p>Po kilku niepowodzeniach zdecydowa\u0142em si\u0119 na inne podej\u015bcie, wykorzystuj\u0105c sztuczn\u0105 inteligencj\u0119 Google <a href=\"https:\/\/gemini.google.com\/app\" target=\"_blank\" data-type=\"link\" data-id=\"https:\/\/gemini.google.com\/app\" rel=\"noreferrer noopener\">Gemini<\/a>.\nPomys\u0142 polega\u0142 na utworzeniu zestaw\u00f3w danych z plik\u00f3w JSON-CSV, a nast\u0119pnie wytrenowaniu niestandardowego modelu LLM przy u\u017cyciu tych danych.\nMia\u0142em nadziej\u0119, \u017ce dzi\u0119ki wykorzystaniu ustrukturyzowanych danych i solidnego modelu szkoleniowego uda mi si\u0119 pokona\u0107 niekt\u00f3re z wyzwa\u0144, kt\u00f3re n\u0119ka\u0142y poprzednie pr\u00f3by.  <\/p>\n\n<p>Jednak to podej\u015bcie r\u00f3wnie\u017c napotka\u0142o trudno\u015bci.\nProces szkolenia zosta\u0142 zatrzymany z powodu nieprawid\u0142owego formatowania danych, co uniemo\u017cliwi\u0142o skuteczne szkolenie modelu.\nTo niepowodzenie podkre\u015bli\u0142o znaczenie integralno\u015bci danych w szkoleniu AI.\nBez odpowiednio sformatowanych i ustrukturyzowanych danych nawet najbardziej zaawansowane modele mog\u0105 nie dzia\u0142a\u0107 zgodnie z oczekiwaniami.   <\/p>\n\n<p>To do\u015bwiadczenie sk\u0142oni\u0142o mnie do rozwa\u017cenia mo\u017cliwo\u015bci wykorzystania BigQuery do przechowywania danych JSON, zapewniaj\u0105c bardziej skalowaln\u0105 i niezawodn\u0105 platform\u0119 do zarz\u0105dzania du\u017cymi zbiorami danych potrzebnymi do skutecznego szkolenia Fabrice AI.<\/p>\n\n<p><strong>\u0141\u0105czenie mocnych stron: Dokumenty Langchain z Pinecone<\/strong><\/p>\n\n<p>Pomimo dotychczasowych wyzwa\u0144, by\u0142em zdeterminowany, aby znale\u017a\u0107 rozwi\u0105zanie, kt\u00f3re pozwoli\u0142oby Fabrice AI skutecznie przechowywa\u0107 i pobiera\u0107 wiedz\u0119.\nTa determinacja doprowadzi\u0142a mnie do eksperymentowania z dokumentami Langchain i Pinecone.\nPodej\u015bcie polega\u0142o na utworzeniu magazynu wektorowego Pinecone przy u\u017cyciu dokument\u00f3w Langchain i osadze\u0144 OpenAI, a nast\u0119pnie pobraniu najbardziej podobnych dokument\u00f3w na podstawie zapytania.  <\/p>\n\n<p>Metoda ta okaza\u0142a si\u0119 obiecuj\u0105ca, zw\u0142aszcza gdy zapytanie zawiera\u0142o tytu\u0142 dokumentu.\nNa przyk\u0142ad, gdy zapytano: &#8222;Jaki jest klucz do szcz\u0119\u015bcia?&#8221;, sztuczna inteligencja by\u0142a w stanie dok\u0142adnie pobra\u0107 i podsumowa\u0107 odpowiedni\u0105 tre\u015b\u0107.\nNadal jednak istnia\u0142y ograniczenia, zw\u0142aszcza gdy zapytanie nie zawiera\u0142o konkretnych s\u0142\u00f3w kluczowych lub tytu\u0142\u00f3w.  <\/p>\n\n<p>Podej\u015bcie to pokaza\u0142o potencja\u0142 \u0142\u0105czenia r\u00f3\u017cnych technologii w celu zwi\u0119kszenia wydajno\u015bci sztucznej inteligencji.\nIntegruj\u0105c dokumenty Langchain z magazynem wektorowym Pinecone, by\u0142em w stanie poprawi\u0107 trafno\u015b\u0107 i dok\u0142adno\u015b\u0107 odpowiedzi sztucznej inteligencji, cho\u0107 z pewnymi ograniczeniami. <\/p>\n\n<p><strong>Osi\u0105gni\u0119cie sp\u00f3jno\u015bci: GPT Builder OpenAI<\/strong><\/p>\n\n<p>Po zbadaniu r\u00f3\u017cnych metod i technologii, zwr\u00f3ci\u0142em si\u0119 do Open AI <a href=\"https:\/\/chatgpt.com\/gpts\/editor\/\" target=\"_blank\" data-type=\"link\" data-id=\"https:\/\/chatgpt.com\/gpts\/editor\/\" rel=\"noreferrer noopener\">GPT Builder<\/a>, aby skonsolidowa\u0107 i udoskonali\u0107 wiedz\u0119 przechowywan\u0105 w Fabrice AI.\nPrzesy\u0142aj\u0105c ca\u0142\u0105 zawarto\u015b\u0107 do bazy wiedzy GPT, chcia\u0142em stworzy\u0107 bardziej sp\u00f3jn\u0105 i niezawodn\u0105 platform\u0119 do wyszukiwania i interakcji z moj\u0105 wiedz\u0105. <\/p>\n\n<p>Podej\u015bcie to okaza\u0142o si\u0119 jednym z najbardziej udanych, a sztuczna inteligencja by\u0142a w stanie zapewni\u0107 lepsze wyniki w przypadku wielu zapyta\u0144.\nKluczem do tego sukcesu by\u0142a integracja ca\u0142ej wiedzy w jeden sp\u00f3jny system, umo\u017cliwiaj\u0105cy sztucznej inteligencji korzystanie z pe\u0142nego zakresu tre\u015bci podczas odpowiadania na pytania. <\/p>\n\n<p>Jak wspomnia\u0142em w moim poprzednim po\u015bcie, nie mog\u0142em go uruchomi\u0107 na mojej stronie internetowej i by\u0142 dost\u0119pny tylko dla p\u0142atnych subskrybent\u00f3w Chat GPT, co uwa\u017ca\u0142em za zbyt ograniczaj\u0105ce.\nPonadto, cho\u0107 by\u0142o lepiej, nadal nie podoba\u0142a mi si\u0119 jako\u015b\u0107 odpowiedzi i nie czu\u0142em si\u0119 komfortowo, udost\u0119pniaj\u0105c je publicznie. <\/p>\n\n<p><strong>Ostateczne udoskonalenie: Asystenci GPT korzystaj\u0105cy z modelu 4o<\/strong><\/p>\n\n<p>Ostatnim elementem uk\u0142adanki w rozwoju Fabrice AI by\u0142o wprowadzenie <a href=\"https:\/\/platform.openai.com\/docs\/assistants\/overview\" target=\"_blank\" data-type=\"link\" data-id=\"https:\/\/platform.openai.com\/docs\/assistants\/overview\" rel=\"noreferrer noopener\">asystent\u00f3w GPT<\/a> przy u\u017cyciu Modelu 4o.\nPodej\u015bcie to stanowi\u0142o kulminacj\u0119 wszystkiego, czego nauczy\u0142em si\u0119 podczas ca\u0142ego projektu.\nWykorzystuj\u0105c wektorow\u0105 baz\u0119 danych i udoskonalaj\u0105c podpowiedzi, stara\u0142em si\u0119 osi\u0105gn\u0105\u0107 najwy\u017cszy mo\u017cliwy poziom dok\u0142adno\u015bci i zrozumienia kontekstu w odpowiedziach AI.  <\/p>\n\n<p>Metoda ta polega\u0142a na przes\u0142aniu ca\u0142ej zgromadzonej przeze mnie wiedzy do wektorowej bazy danych, kt\u00f3ra zosta\u0142a nast\u0119pnie wykorzystana jako podstawa interakcji sztucznej inteligencji.\nWektorowa baza danych pozwoli\u0142a sztucznej inteligencji na przeprowadzanie bardziej zaawansowanych wyszukiwa\u0144, pobieraj\u0105c informacje w oparciu o semantyczne znaczenie zapyta\u0144, zamiast polega\u0107 wy\u0142\u0105cznie na dopasowywaniu s\u0142\u00f3w kluczowych.\nOznacza\u0142o to znaczny post\u0119p w stosunku do poprzednich podej\u015b\u0107, umo\u017cliwiaj\u0105c sztucznej inteligencji lepsze zrozumienie i reagowanie na z\u0142o\u017cone, zniuansowane pytania.  <\/p>\n\n<p>Jedn\u0105 z kluczowych innowacji tego podej\u015bcia by\u0142o staranne dopracowanie podpowiedzi.\nPoprzez skrupulatne tworzenie i testowanie r\u00f3\u017cnych podpowiedzi, by\u0142em w stanie poprowadzi\u0107 sztuczn\u0105 inteligencj\u0119 w kierunku dostarczania bardziej dok\u0142adnych i trafnych odpowiedzi.\nWi\u0105za\u0142o si\u0119 to nie tylko z poprawianiem brzmienia podpowiedzi, ale tak\u017ce eksperymentowaniem z r\u00f3\u017cnymi sposobami konstruowania zapyta\u0144 w celu uzyskania najlepszych mo\u017cliwych odpowiedzi.  <br\/><br\/>Wyniki by\u0142y imponuj\u0105ce.\nSztuczna inteligencja by\u0142a teraz w stanie obs\u0142u\u017cy\u0107 szeroki zakres zapyta\u0144 z du\u017c\u0105 dok\u0142adno\u015bci\u0105, nawet gdy pytania by\u0142y otwarte lub wymaga\u0142y g\u0142\u0119bokiego zrozumienia kontekstu.\nNa przyk\u0142ad, na pytanie &#8222;Jak podejmowa\u0107 najwa\u017cniejsze decyzje w \u017cyciu?&#8221;\nSztuczna inteligencja udzieli\u0142a wyczerpuj\u0105cej i wnikliwej odpowiedzi, opieraj\u0105c si\u0119 na r\u00f3\u017cnych \u017ar\u00f3d\u0142ach i perspektywach, aby zapewni\u0107 wszechstronn\u0105 odpowied\u017a.   <\/p>\n\n<p>Sukces ten by\u0142 kulminacj\u0105 setek godzin pracy i niezliczonych eksperyment\u00f3w.\nPokaza\u0142 on, \u017ce dzi\u0119ki odpowiedniej kombinacji technologii i udoskonale\u0144, mo\u017cliwe jest stworzenie sztucznej inteligencji, kt\u00f3ra nie tylko mo\u017ce skutecznie przechowywa\u0107 i wyszukiwa\u0107 informacje, ale tak\u017ce anga\u017cowa\u0107 si\u0119 w nie w znacz\u0105cy spos\u00f3b.\nRozw\u00f3j GPT Assistants przy u\u017cyciu Modelu 4o wyznaczy\u0142 punkt, w kt\u00f3rym Fabrice AI naprawd\u0119 si\u0119 rozwin\u0119\u0142a, osi\u0105gaj\u0105c poziom wyrafinowania i dok\u0142adno\u015bci, kt\u00f3ry wyobra\u017ca\u0142em sobie od samego pocz\u0105tku.\nInterfejs API GPT Assistants zosta\u0142 nast\u0119pnie zintegrowany z moim blogiem, aby umo\u017cliwi\u0107 u\u017cytkownikom ko\u0144cowym interakcj\u0119 z Fabrice AI w spos\u00f3b, w jaki widzisz go teraz na blogu.   <\/p>\n\n<p><strong>Refleksja nad podr\u00f3\u017c\u0105<\/strong><\/p>\n\n<p>Proces rozwoju Fabrice AI uwypukli\u0142 z\u0142o\u017cono\u015b\u0107 pracy ze sztuczn\u0105 inteligencj\u0105, szczeg\u00f3lnie je\u015bli chodzi o zrozumienie i kontekstualizacj\u0119 informacji.\nNauczy\u0142o mnie to, \u017ce w rozwoju sztucznej inteligencji nie ma drogi na skr\u00f3ty &#8211; ka\u017cdy krok, ka\u017cda iteracja i ka\u017cdy eksperyment jest niezb\u0119dn\u0105 cz\u0119\u015bci\u0105 podr\u00f3\u017cy w kierunku stworzenia czego\u015b naprawd\u0119 skutecznego. <\/p>\n\n<p>Patrz\u0105c w przysz\u0142o\u015b\u0107, jestem podekscytowany dalszym udoskonalaniem i rozszerzaniem Fabrice AI.\nJak wspomnia\u0142em w ostatnim po\u015bcie, przejrz\u0119 zadane pytania, aby uzupe\u0142ni\u0107 baz\u0119 wiedzy tam, gdzie s\u0105 luki.\nMam r\u00f3wnie\u017c nadziej\u0119, \u017ce w ko\u0144cu wydam interaktywn\u0105 wersj\u0119, kt\u00f3ra wygl\u0105da i brzmi jak ja, z kt\u00f3r\u0105 mo\u017cna porozmawia\u0107.  <\/p>\n","protected":false},"excerpt":{"rendered":"<p>Jak wspomnia\u0142em w poprzednim po\u015bcie, rozw\u00f3j Fabrice AI okaza\u0142 si\u0119 o wiele bardziej z\u0142o\u017cony ni\u017c oczekiwano, zmuszaj\u0105c mnie do zbadania wielu r\u00f3\u017cnych podej\u015b\u0107. Podej\u015bcie pocz\u0105tkowe: Llama Index &#8211; wyszukiwanie wektorowe &hellip; <a href=\"https:\/\/grinda.org\/pl\/fabrice-ai-techniczna-podroz\/\" class=\"more-link\">Czytaj dalej<span class=\"screen-reader-text\"> \u201eFabrice AI: Techniczna podr\u00f3\u017c\u201d<\/span><\/a><\/p>\n","protected":false},"author":9,"featured_media":46225,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"footnotes":""},"categories":[308,935],"tags":[],"class_list":["post-46252","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-osobiste-przemyslenia","category-gadzety-techniczne"],"acf":[],"contentUpdated":"Fabrice AI: Techniczna podr\u00f3\u017c. Categories - Osobiste przemy\u015blenia, Gad\u017cety techniczne. Date-Posted - 2024-09-04T14:05:10 . \n Jak wspomnia\u0142em w poprzednim po\u015bcie, rozw\u00f3j Fabrice AI okaza\u0142 si\u0119 o wiele bardziej z\u0142o\u017cony ni\u017c oczekiwano, zmuszaj\u0105c mnie do zbadania wielu r\u00f3\u017cnych podej\u015b\u0107.\n Podej\u015bcie pocz\u0105tkowe: Llama Index &#8211; wyszukiwanie wektorowe\n Moja pierwsza pr\u00f3ba ulepszenia zdolno\u015bci wyszukiwania Fabrice AI polega\u0142a na wykorzystaniu indeksu Llama do wyszukiwania wektorowego.\n Koncepcja by\u0142a prosta: pobra\u0107 tre\u015bci z mojego bloga, przekonwertowa\u0107 je na dokumenty Langchain, a nast\u0119pnie przekszta\u0142ci\u0107 je w dokumenty Llama.\n Te dokumenty Llama by\u0142yby nast\u0119pnie przechowywane w indeksie wektorowym, umo\u017cliwiaj\u0105c mi wyszukiwanie w tym indeksie odpowiednich informacji.  \n Gdy jednak zacz\u0105\u0142em testowa\u0107 system, okaza\u0142o si\u0119, \u017ce takie podej\u015bcie nie przynosi oczekiwanych rezultat\u00f3w.\n W szczeg\u00f3lno\u015bci, gdy zadawa\u0142em systemowi pytania kontekstowe, takie jak &#8222;Jakie s\u0105 najwi\u0119ksze b\u0142\u0119dy pope\u0142niane przez za\u0142o\u017cycieli rynku?&#8221;, sztuczna inteligencja nie dostarcza\u0142a znacz\u0105cych odpowiedzi.\n Zamiast pobiera\u0107 zniuansowane tre\u015bci, o kt\u00f3rych wiedzia\u0142em, \u017ce s\u0105 osadzone w danych, zwraca\u0142a nieistotne lub niekompletne odpowiedzi.  \n Ta pocz\u0105tkowa pora\u017cka sk\u0142oni\u0142a mnie do ponownego rozwa\u017cenia mojego podej\u015bcia.\n Zda\u0142em sobie spraw\u0119, \u017ce samo przechowywanie tre\u015bci w indeksie wektorowym nie wystarczy; mechanizm wyszukiwania musia\u0142 zrozumie\u0107 kontekst i niuanse zadawanych pyta\u0144.\n Ta \u015bwiadomo\u015b\u0107 by\u0142a pierwsz\u0105 z wielu lekcji, kt\u00f3re ukszta\u0142towa\u0142y ewolucj\u0119 Fabrice AI.  \n Przechowywanie wiedzy: Przechowywanie i odzyskiwanie dokument\u00f3w MongoDB\n Maj\u0105c na uwadze ograniczenia podej\u015bcia Llama Index, nast\u0119pnie zbada\u0142em przechowywanie dokument\u00f3w Llama w MongoDB.\n Elastyczny schemat MongoDB i struktura zorientowana na dokumenty wydawa\u0142y si\u0119 obiecuj\u0105cym rozwi\u0105zaniem do zarz\u0105dzania r\u00f3\u017cnymi rodzajami tre\u015bci, kt\u00f3re gromadzi\u0142em przez lata. \n Plan zak\u0142ada\u0142 stworzenie bardziej dynamicznego i responsywnego \u015brodowiska wyszukiwania.\n Jednak to podej\u015bcie szybko napotka\u0142o problemy.\n Funkcja wyszukiwania, kt\u00f3ra mia\u0142a by\u0107 bardziej niezawodna, nie dzia\u0142a\u0142a zgodnie z oczekiwaniami.\n Zapytania, kt\u00f3re powinny zwraca\u0107 odpowiednie dokumenty, zamiast tego nie dawa\u0142y \u017cadnych wynik\u00f3w lub zawiera\u0142y nieistotne tre\u015bci.   \n To niepowodzenie by\u0142o frustruj\u0105ce, ale podkre\u015bli\u0142o r\u00f3wnie\u017c kluczow\u0105 lekcj\u0119: metoda przechowywania jest tak samo wa\u017cna jak strategia wyszukiwania.\n Zacz\u0105\u0142em rozwa\u017ca\u0107 inne opcje, takie jak wykorzystanie MongoDB Atlas do wyszukiwania wektorowego, kt\u00f3re potencjalnie mog\u0142oby zapewni\u0107 precyzj\u0119 i skalowalno\u015b\u0107, kt\u00f3rych potrzebowa\u0142em.\n Jednak zanim zdecydowa\u0142em si\u0119 na t\u0119 alternatyw\u0119, chcia\u0142em zbada\u0107 inne podej\u015bcia, aby ustali\u0107, czy mo\u017ce istnie\u0107 bardziej skuteczne rozwi\u0105zanie.  \n Pobieranie metadanych i sklep z wektorami: Poszukiwanie specyfiki\n Jedn\u0105 z kolejnych dr\u00f3g, kt\u00f3re zbada\u0142em, by\u0142o u\u017cycie narz\u0119dzia do pobierania metadanych w po\u0142\u0105czeniu z magazynem wektorowym.\n Ide\u0105 tego podej\u015bcia by\u0142o skategoryzowanie ogromnej ilo\u015bci informacji w Fabrice AI, a nast\u0119pnie pobranie odpowiedzi na podstawie tych kategorii.\n Strukturyzuj\u0105c dane za pomoc\u0105 metadanych, mia\u0142em nadziej\u0119 poprawi\u0107 zdolno\u015b\u0107 sztucznej inteligencji do udzielania konkretnych, ukierunkowanych odpowiedzi.  \n Metoda ta mia\u0142a jednak r\u00f3wnie\u017c swoje ograniczenia.\n Cho\u0107 z pozoru wydawa\u0142a si\u0119 obiecuj\u0105ca, sztuczna inteligencja z trudem udziela\u0142a dok\u0142adnych odpowiedzi na wszystkie rodzaje zapyta\u0144.\n Na przyk\u0142ad, gdy zapyta\u0142em: &#8222;Czy autor jest optymist\u0105?&#8221;.\n System nie zinterpretowa\u0142 pytania w kontek\u015bcie odpowiedniej tre\u015bci.\n Zamiast zapewni\u0107 wnikliw\u0105 analiz\u0119 opart\u0105 na metadanych, albo zwraca\u0142 niejasne odpowiedzi, albo nie udziela\u0142 ich wcale.    \n To podej\u015bcie nauczy\u0142o mnie cennej lekcji na temat znaczenia kontekstu w sztucznej inteligencji.\n Nie wystarczy po prostu kategoryzowa\u0107 informacje; sztuczna inteligencja musi r\u00f3wnie\u017c rozumie\u0107, w jaki spos\u00f3b te kategorie wsp\u00f3\u0142dzia\u0142aj\u0105 i nak\u0142adaj\u0105 si\u0119 na siebie, tworz\u0105c sp\u00f3jne zrozumienie tre\u015bci.\n Bez tego dog\u0142\u0119bnego zrozumienia nawet najbardziej wyrafinowane metody wyszukiwania mog\u0105 okaza\u0107 si\u0119 niewystarczaj\u0105ce.  \n Strukturyzacja wiedzy: SummaryTreeIndex\n Kontynuuj\u0105c udoskonalanie Fabrice AI, eksperymentowa\u0142em z tworzeniem SummaryTreeIndex.\n Podej\u015bcie to mia\u0142o na celu podsumowanie wszystkich dokument\u00f3w w formacie drzewa, umo\u017cliwiaj\u0105c sztucznej inteligencji poruszanie si\u0119 po tych podsumowaniach i wyszukiwanie istotnych informacji w oparciu o struktur\u0119 tre\u015bci. \n Pomys\u0142 polega\u0142 na tym, \u017ce podsumowuj\u0105c dokumenty, sztuczna inteligencja mog\u0142a szybko zidentyfikowa\u0107 kluczowe punkty i odpowiedzie\u0107 na zapytania zwi\u0119z\u0142ymi, dok\u0142adnymi informacjami.\n Jednak metoda ta napotka\u0142a r\u00f3wnie\u017c powa\u017cne wyzwania.\n Sztuczna inteligencja mia\u0142a trudno\u015bci z udzielaniem znacz\u0105cych odpowiedzi na z\u0142o\u017cone zapytania, takie jak &#8222;Jak podejmowa\u0107 wa\u017cne decyzje w \u017cyciu?&#8221;.\n Zamiast czerpa\u0107 z bogatych, zniuansowanych tre\u015bci przechowywanych w podsumowaniach, odpowiedzi AI by\u0142y cz\u0119sto p\u0142ytkie lub niekompletne.   \n To do\u015bwiadczenie uwypukli\u0142o trudno\u015b\u0107 w r\u00f3wnowa\u017ceniu szeroko\u015bci i g\u0142\u0119boko\u015bci w sztucznej inteligencji.\n Podczas gdy podsumowania mog\u0105 zapewni\u0107 og\u00f3lny przegl\u0105d, cz\u0119sto brakuje im szczeg\u00f3\u0142owego kontekstu potrzebnego do udzielenia odpowiedzi na bardziej z\u0142o\u017cone pytania.\n Zda\u0142em sobie spraw\u0119, \u017ce ka\u017cde skuteczne rozwi\u0105zanie b\u0119dzie musia\u0142o integrowa\u0107 zar\u00f3wno szczeg\u00f3\u0142owe tre\u015bci, jak i podsumowania wysokiego poziomu, pozwalaj\u0105c sztucznej inteligencji czerpa\u0107 z obu w razie potrzeby.  \n Dlatego w wersji Fabrice AI, kt\u00f3ra jest obecnie dost\u0119pna, najpierw podaj\u0119 podsumowanie odpowiedzi, zanim przejd\u0119 do bardziej szczeg\u00f3\u0142owych informacji.\n Poszerzanie horyzont\u00f3w: Indeks wykresu wiedzy\n Uznaj\u0105c ograniczenia poprzednich metod, zwr\u00f3ci\u0142em si\u0119 ku bardziej wyrafinowanemu podej\u015bciu: indeksowi grafu wiedzy.\n Podej\u015bcie to polega\u0142o na konstruowaniu grafu wiedzy z nieustrukturyzowanego tekstu, umo\u017cliwiaj\u0105c sztucznej inteligencji anga\u017cowanie si\u0119 w zapytania oparte na encjach.\n Celem by\u0142o stworzenie bardziej dynamicznego i wzajemnie powi\u0105zanego zrozumienia tre\u015bci, co pozwoli\u0142o sztucznej inteligencji Fabrice skuteczniej odpowiada\u0107 na z\u0142o\u017cone, kontekstowe pytania.  \n Pomimo swoich obietnic, indeks Knowledge Graph napotka\u0142 r\u00f3wnie\u017c znacz\u0105ce przeszkody.\n Sztuczna inteligencja mia\u0142a trudno\u015bci z uzyskaniem dok\u0142adnych wynik\u00f3w, szczeg\u00f3lnie w przypadku zapyta\u0144, kt\u00f3re wymaga\u0142y g\u0142\u0119bokiego zrozumienia kontekstu.\n Na przyk\u0142ad na pytanie &#8222;Jakie s\u0105 uczciwe wyceny seed\u00f3w i serii A?&#8221; sztuczna inteligencja ponownie nie udzieli\u0142a trafnej odpowiedzi, podkre\u015blaj\u0105c trudno\u015b\u0107 integracji nieustrukturyzowanego tekstu w sp\u00f3jny graf wiedzy.  \n Podej\u015bcie to, cho\u0107 ostatecznie nieudane, dostarczy\u0142o wa\u017cnych informacji na temat wyzwa\u0144 zwi\u0105zanych z wykorzystaniem graf\u00f3w wiedzy w sztucznej inteligencji.\n Z\u0142o\u017cono\u015b\u0107 danych i potrzeba precyzyjnego kontekstu oznacza\u0142y, \u017ce nawet dobrze skonstruowany graf wiedzy m\u00f3g\u0142 mie\u0107 trudno\u015bci z dostarczeniem po\u017c\u0105danych wynik\u00f3w.\n Kolejn\u0105 wad\u0105 Knowledge Graph Index by\u0142a jego niska pr\u0119dko\u015b\u0107.\n Czas odpowiedzi w celu uzyskania powi\u0105zanych dokument\u00f3w by\u0142 bardzo wysoki w por\u00f3wnaniu do indeksu wektorowego.   \n Ponowna ocena danych: Gemini\n Po kilku niepowodzeniach zdecydowa\u0142em si\u0119 na inne podej\u015bcie, wykorzystuj\u0105c sztuczn\u0105 inteligencj\u0119 Google Gemini.\n Pomys\u0142 polega\u0142 na utworzeniu zestaw\u00f3w danych z plik\u00f3w JSON-CSV, a nast\u0119pnie wytrenowaniu niestandardowego modelu LLM przy u\u017cyciu tych danych.\n Mia\u0142em nadziej\u0119, \u017ce dzi\u0119ki wykorzystaniu ustrukturyzowanych danych i solidnego modelu szkoleniowego uda mi si\u0119 pokona\u0107 niekt\u00f3re z wyzwa\u0144, kt\u00f3re n\u0119ka\u0142y poprzednie pr\u00f3by.  \n Jednak to podej\u015bcie r\u00f3wnie\u017c napotka\u0142o trudno\u015bci.\n Proces szkolenia zosta\u0142 zatrzymany z powodu nieprawid\u0142owego formatowania danych, co uniemo\u017cliwi\u0142o skuteczne szkolenie modelu.\n To niepowodzenie podkre\u015bli\u0142o znaczenie integralno\u015bci danych w szkoleniu AI.\n Bez odpowiednio sformatowanych i ustrukturyzowanych danych nawet najbardziej zaawansowane modele mog\u0105 nie dzia\u0142a\u0107 zgodnie z oczekiwaniami.   \n To do\u015bwiadczenie sk\u0142oni\u0142o mnie do rozwa\u017cenia mo\u017cliwo\u015bci wykorzystania BigQuery do przechowywania danych JSON, zapewniaj\u0105c bardziej skalowaln\u0105 i niezawodn\u0105 platform\u0119 do zarz\u0105dzania du\u017cymi zbiorami danych potrzebnymi do skutecznego szkolenia Fabrice AI.\n \u0141\u0105czenie mocnych stron: Dokumenty Langchain z Pinecone\n Pomimo dotychczasowych wyzwa\u0144, by\u0142em zdeterminowany, aby znale\u017a\u0107 rozwi\u0105zanie, kt\u00f3re pozwoli\u0142oby Fabrice AI skutecznie przechowywa\u0107 i pobiera\u0107 wiedz\u0119.\n Ta determinacja doprowadzi\u0142a mnie do eksperymentowania z dokumentami Langchain i Pinecone.\n Podej\u015bcie polega\u0142o na utworzeniu magazynu wektorowego Pinecone przy u\u017cyciu dokument\u00f3w Langchain i osadze\u0144 OpenAI, a nast\u0119pnie pobraniu najbardziej podobnych dokument\u00f3w na podstawie zapytania.  \n Metoda ta okaza\u0142a si\u0119 obiecuj\u0105ca, zw\u0142aszcza gdy zapytanie zawiera\u0142o tytu\u0142 dokumentu.\n Na przyk\u0142ad, gdy zapytano: &#8222;Jaki jest klucz do szcz\u0119\u015bcia?&#8221;, sztuczna inteligencja by\u0142a w stanie dok\u0142adnie pobra\u0107 i podsumowa\u0107 odpowiedni\u0105 tre\u015b\u0107.\n Nadal jednak istnia\u0142y ograniczenia, zw\u0142aszcza gdy zapytanie nie zawiera\u0142o konkretnych s\u0142\u00f3w kluczowych lub tytu\u0142\u00f3w.  \n Podej\u015bcie to pokaza\u0142o potencja\u0142 \u0142\u0105czenia r\u00f3\u017cnych technologii w celu zwi\u0119kszenia wydajno\u015bci sztucznej inteligencji.\n Integruj\u0105c dokumenty Langchain z magazynem wektorowym Pinecone, by\u0142em w stanie poprawi\u0107 trafno\u015b\u0107 i dok\u0142adno\u015b\u0107 odpowiedzi sztucznej inteligencji, cho\u0107 z pewnymi ograniczeniami. \n Osi\u0105gni\u0119cie sp\u00f3jno\u015bci: GPT Builder OpenAI\n Po zbadaniu r\u00f3\u017cnych metod i technologii, zwr\u00f3ci\u0142em si\u0119 do Open AI GPT Builder, aby skonsolidowa\u0107 i udoskonali\u0107 wiedz\u0119 przechowywan\u0105 w Fabrice AI.\n Przesy\u0142aj\u0105c ca\u0142\u0105 zawarto\u015b\u0107 do bazy wiedzy GPT, chcia\u0142em stworzy\u0107 bardziej sp\u00f3jn\u0105 i niezawodn\u0105 platform\u0119 do wyszukiwania i interakcji z moj\u0105 wiedz\u0105. \n Podej\u015bcie to okaza\u0142o si\u0119 jednym z najbardziej udanych, a sztuczna inteligencja by\u0142a w stanie zapewni\u0107 lepsze wyniki w przypadku wielu zapyta\u0144.\n Kluczem do tego sukcesu by\u0142a integracja ca\u0142ej wiedzy w jeden sp\u00f3jny system, umo\u017cliwiaj\u0105cy sztucznej inteligencji korzystanie z pe\u0142nego zakresu tre\u015bci podczas odpowiadania na pytania. \n Jak wspomnia\u0142em w moim poprzednim po\u015bcie, nie mog\u0142em go uruchomi\u0107 na mojej stronie internetowej i by\u0142 dost\u0119pny tylko dla p\u0142atnych subskrybent\u00f3w Chat GPT, co uwa\u017ca\u0142em za zbyt ograniczaj\u0105ce.\n Ponadto, cho\u0107 by\u0142o lepiej, nadal nie podoba\u0142a mi si\u0119 jako\u015b\u0107 odpowiedzi i nie czu\u0142em si\u0119 komfortowo, udost\u0119pniaj\u0105c je publicznie. \n Ostateczne udoskonalenie: Asystenci GPT korzystaj\u0105cy z modelu 4o\n Ostatnim elementem uk\u0142adanki w rozwoju Fabrice AI by\u0142o wprowadzenie asystent\u00f3w GPT przy u\u017cyciu Modelu 4o.\n Podej\u015bcie to stanowi\u0142o kulminacj\u0119 wszystkiego, czego nauczy\u0142em si\u0119 podczas ca\u0142ego projektu.\n Wykorzystuj\u0105c wektorow\u0105 baz\u0119 danych i udoskonalaj\u0105c podpowiedzi, stara\u0142em si\u0119 osi\u0105gn\u0105\u0107 najwy\u017cszy mo\u017cliwy poziom dok\u0142adno\u015bci i zrozumienia kontekstu w odpowiedziach AI.  \n Metoda ta polega\u0142a na przes\u0142aniu ca\u0142ej zgromadzonej przeze mnie wiedzy do wektorowej bazy danych, kt\u00f3ra zosta\u0142a nast\u0119pnie wykorzystana jako podstawa interakcji sztucznej inteligencji.\n Wektorowa baza danych pozwoli\u0142a sztucznej inteligencji na przeprowadzanie bardziej zaawansowanych wyszukiwa\u0144, pobieraj\u0105c informacje w oparciu o semantyczne znaczenie zapyta\u0144, zamiast polega\u0107 wy\u0142\u0105cznie na dopasowywaniu s\u0142\u00f3w kluczowych.\n Oznacza\u0142o to znaczny post\u0119p w stosunku do poprzednich podej\u015b\u0107, umo\u017cliwiaj\u0105c sztucznej inteligencji lepsze zrozumienie i reagowanie na z\u0142o\u017cone, zniuansowane pytania.  \n Jedn\u0105 z kluczowych innowacji tego podej\u015bcia by\u0142o staranne dopracowanie podpowiedzi.\n Poprzez skrupulatne tworzenie i testowanie r\u00f3\u017cnych podpowiedzi, by\u0142em w stanie poprowadzi\u0107 sztuczn\u0105 inteligencj\u0119 w kierunku dostarczania bardziej dok\u0142adnych i trafnych odpowiedzi.\n Wi\u0105za\u0142o si\u0119 to nie tylko z poprawianiem brzmienia podpowiedzi, ale tak\u017ce eksperymentowaniem z r\u00f3\u017cnymi sposobami konstruowania zapyta\u0144 w celu uzyskania najlepszych mo\u017cliwych odpowiedzi.  Wyniki by\u0142y imponuj\u0105ce.\n Sztuczna inteligencja by\u0142a teraz w stanie obs\u0142u\u017cy\u0107 szeroki zakres zapyta\u0144 z du\u017c\u0105 dok\u0142adno\u015bci\u0105, nawet gdy pytania by\u0142y otwarte lub wymaga\u0142y g\u0142\u0119bokiego zrozumienia kontekstu.\n Na przyk\u0142ad, na pytanie &#8222;Jak podejmowa\u0107 najwa\u017cniejsze decyzje w \u017cyciu?&#8221;\n Sztuczna inteligencja udzieli\u0142a wyczerpuj\u0105cej i wnikliwej odpowiedzi, opieraj\u0105c si\u0119 na r\u00f3\u017cnych \u017ar\u00f3d\u0142ach i perspektywach, aby zapewni\u0107 wszechstronn\u0105 odpowied\u017a.   \n Sukces ten by\u0142 kulminacj\u0105 setek godzin pracy i niezliczonych eksperyment\u00f3w.\n Pokaza\u0142 on, \u017ce dzi\u0119ki odpowiedniej kombinacji technologii i udoskonale\u0144, mo\u017cliwe jest stworzenie sztucznej inteligencji, kt\u00f3ra nie tylko mo\u017ce skutecznie przechowywa\u0107 i wyszukiwa\u0107 informacje, ale tak\u017ce anga\u017cowa\u0107 si\u0119 w nie w znacz\u0105cy spos\u00f3b.\n Rozw\u00f3j GPT Assistants przy u\u017cyciu Modelu 4o wyznaczy\u0142 punkt, w kt\u00f3rym Fabrice AI naprawd\u0119 si\u0119 rozwin\u0119\u0142a, osi\u0105gaj\u0105c poziom wyrafinowania i dok\u0142adno\u015bci, kt\u00f3ry wyobra\u017ca\u0142em sobie od samego pocz\u0105tku.\n Interfejs API GPT Assistants zosta\u0142 nast\u0119pnie zintegrowany z moim blogiem, aby umo\u017cliwi\u0107 u\u017cytkownikom ko\u0144cowym interakcj\u0119 z Fabrice AI w spos\u00f3b, w jaki widzisz go teraz na blogu.   \n Refleksja nad podr\u00f3\u017c\u0105\n Proces rozwoju Fabrice AI uwypukli\u0142 z\u0142o\u017cono\u015b\u0107 pracy ze sztuczn\u0105 inteligencj\u0105, szczeg\u00f3lnie je\u015bli chodzi o zrozumienie i kontekstualizacj\u0119 informacji.\n Nauczy\u0142o mnie to, \u017ce w rozwoju sztucznej inteligencji nie ma drogi na skr\u00f3ty &#8211; ka\u017cdy krok, ka\u017cda iteracja i ka\u017cdy eksperyment jest niezb\u0119dn\u0105 cz\u0119\u015bci\u0105 podr\u00f3\u017cy w kierunku stworzenia czego\u015b naprawd\u0119 skutecznego. \n Patrz\u0105c w przysz\u0142o\u015b\u0107, jestem podekscytowany dalszym udoskonalaniem i rozszerzaniem Fabrice AI.\n Jak wspomnia\u0142em w ostatnim po\u015bcie, przejrz\u0119 zadane pytania, aby uzupe\u0142ni\u0107 baz\u0119 wiedzy tam, gdzie s\u0105 luki.\n Mam r\u00f3wnie\u017c nadziej\u0119, \u017ce w ko\u0144cu wydam interaktywn\u0105 wersj\u0119, kt\u00f3ra wygl\u0105da i brzmi jak ja, z kt\u00f3r\u0105 mo\u017cna porozmawia\u0107.  \n ","Category":["Osobiste przemy\u015blenia","Gad\u017cety techniczne"],"_links":{"self":[{"href":"https:\/\/grinda.org\/pl\/wp-json\/wp\/v2\/posts\/46252","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/grinda.org\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/grinda.org\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/grinda.org\/pl\/wp-json\/wp\/v2\/users\/9"}],"replies":[{"embeddable":true,"href":"https:\/\/grinda.org\/pl\/wp-json\/wp\/v2\/comments?post=46252"}],"version-history":[{"count":1,"href":"https:\/\/grinda.org\/pl\/wp-json\/wp\/v2\/posts\/46252\/revisions"}],"predecessor-version":[{"id":46255,"href":"https:\/\/grinda.org\/pl\/wp-json\/wp\/v2\/posts\/46252\/revisions\/46255"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/grinda.org\/pl\/wp-json\/wp\/v2\/media\/46225"}],"wp:attachment":[{"href":"https:\/\/grinda.org\/pl\/wp-json\/wp\/v2\/media?parent=46252"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/grinda.org\/pl\/wp-json\/wp\/v2\/categories?post=46252"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/grinda.org\/pl\/wp-json\/wp\/v2\/tags?post=46252"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}