{"id":46167,"date":"2024-08-22T15:53:16","date_gmt":"2024-08-22T15:53:16","guid":{"rendered":"https:\/\/fabricegrinda.com\/?p=46167"},"modified":"2024-08-22T15:53:34","modified_gmt":"2024-08-22T15:53:34","slug":"wir-stellen-vor-fabrice-ai","status":"publish","type":"post","link":"https:\/\/grinda.org\/de\/wir-stellen-vor-fabrice-ai\/","title":{"rendered":"Wir stellen vor: Fabrice AI"},"content":{"rendered":"\n<p><a href=\"https:\/\/fabriceai.fabricegrinda.com\/\" target=\"_blank\" data-type=\"link\" data-id=\"https:\/\/fabriceai.fabricegrinda.com\/\" rel=\"noreferrer noopener\">Fabrice AI<\/a> ist eine digitale Darstellung meiner Gedanken, die auf dem gesamten Inhalt meines Blogs basiert.\nSie soll ein interaktiver, intelligenter Assistent sein, der in der Lage ist, komplexe Anfragen nuanciert und pr\u00e4zise zu verstehen und zu beantworten. <\/p>\n\n<p>Fabrice AI begann als Experiment, ein pers\u00f6nliches Bestreben, das Potenzial der k\u00fcnstlichen Intelligenz zu erforschen, indem ich eine digitale Version des umfangreichen Wissens schuf, das ich im Laufe der Jahre weitergegeben hatte.\nUrspr\u00fcnglich stellte ich mir dies als ein einfaches Projekt vor, das in wenigen Stunden abgeschlossen werden konnte.\nDer Plan war einfach: Ich lud meine Inhalte in die API von OpenAI hoch und erlaubte der KI, damit zu interagieren. Auf diese Weise entstand ein zug\u00e4nglicher, intelligenter Assistent, der auf der Grundlage der F\u00fclle an Informationen, die ich geteilt hatte, nuancierte Antworten geben konnte.  <\/p>\n\n<p>Als ich mich jedoch auf diese Reise begab, wurde schnell klar, dass die Aufgabe weitaus komplexer war, als ich erwartet hatte.\nDas Projekt, von dem ich dachte, dass es ein kurzer Ausflug in die KI sein w\u00fcrde, entwickelte sich schnell zu einem umfassenden und komplizierten Unterfangen, das weit mehr als nur ein oberfl\u00e4chliches Hochladen von Daten erforderte.\nEs wurde zu einem tiefen Eintauchen in die Feinheiten der KI, der nat\u00fcrlichen Sprachverarbeitung und des Wissensmanagements.  <\/p>\n\n<p>Die zentrale Herausforderung, vor der ich stand, bestand nicht nur darin, Informationen zu speichern, sondern der KI beizubringen, diese Informationen so zu verstehen, zu kontextualisieren und genau abzurufen, dass sie die Tiefe und Nuancierung meiner urspr\u00fcnglichen Inhalte widerspiegeln.\nDies erforderte einen vielschichtigen Ansatz, da ich feststellte, dass einfache Methoden der Datenspeicherung und -abfrage f\u00fcr die Komplexit\u00e4t der Fragen, die ich Fabrice AI stellen wollte, nicht ausreichten. <\/p>\n\n<p>Die Reise f\u00fchrte mich durch eine breite Palette von Ans\u00e4tzen, von den ersten Versuchen mit Vektorsuchindizes bis hin zu fortgeschritteneren Methoden, die Wissensgraphen, Metadatenabfragen und ma\u00dfgeschneiderte KI-Modelle umfassen.\nJeder Ansatz hatte seine eigenen St\u00e4rken und Schw\u00e4chen, und jeder lehrte mich etwas Neues \u00fcber die Komplexit\u00e4t der KI und die Feinheiten des digitalen Wissensmanagements.\nDen technischen Weg, den ich eingeschlagen habe, werde ich im n\u00e4chsten Blogbeitrag im Detail beschreiben.  <\/p>\n\n<p>Neben den technischen Problemen erwies sich auch die Erstellung einer umfassenden Wissensdatenbank als Herausforderung.\nIn der Anfangsphase, in der ich die Genauigkeit der KI testete, wurde mir klar, dass die detailliertesten und genauesten Antworten auf einige Fragen diejenigen waren, die ich in Videointerviews oder Podcasts gegeben hatte.\nUm genau zu sein, musste die Wissensdatenbank alle meine Beitr\u00e4ge, Videointerviews, Podcasts, PowerPoint-Pr\u00e4sentationen, Bilder und PDF-Dokumente enthalten.  <\/p>\n\n<p>Ich begann mit der Transkription des gesamten Inhalts.\nDa die automatischen Transkriptionen anfangs nur ungef\u00e4hr sind, musste ich sicherstellen, dass die KI den Inhalt versteht.\nDas hat viel Zeit in Anspruch genommen, da ich die Antworten f\u00fcr jeden einzelnen transkribierten Inhalt testen musste.  <\/p>\n\n<p>Obwohl die Transkriptionen mich von dem anderen Sprecher trennten, dachte die KI zun\u00e4chst, dass 100% der gesprochenen Inhalte von mir stammten, was eine Menge weiteres Training erforderte, um sicherzustellen, dass sie beide Sprecher bei allen Inhalten korrekt unterscheiden konnte.\nAu\u00dferdem wollte ich, dass die KI von Fabrice den neueren Inhalten mehr Gewicht gibt.\nAls ich das zum ersten Mal ausprobierte, verwendete sie nat\u00fcrlich das Datum, an dem ich den Inhalt auf den LLM hochgeladen hatte, und nicht das Datum, an dem ich den Artikel urspr\u00fcnglich ver\u00f6ffentlicht hatte, was weitere Anpassungen erforderte.  <\/p>\n\n<p>Der Vollst\u00e4ndigkeit halber habe ich auch das Wissen in den Folien, die ich im Blog geteilt habe, transkribiert, indem ich das OCR-Modell in Azure f\u00fcr die Umwandlung von Bildern in Text verwendet und die Dateien dann in die Wissensdatenbank des GPT-Assistenten hochgeladen habe.\nEbenso lud ich PDFs aus der Mediathek von WordPress herunter und lud sie in die Wissensdatenbank hoch. <\/p>\n\n<p>W\u00e4hrend des Betatests ist mir aufgefallen, dass viele meiner Freunde pers\u00f6nliche Fragen gestellt haben, die im Blog nicht behandelt wurden.\nIch bin gespannt, welche Art von Fragen die Leute in den n\u00e4chsten Wochen stellen werden.\nIch werde die Antworten vervollst\u00e4ndigen, falls sie mit den vorhandenen Inhalten in meinem Blog nicht gefunden werden k\u00f6nnen.\nBeachten Sie, dass ich die Antworten von Fabrice AI absichtlich auf den Inhalt des Blogs beschr\u00e4nke, damit Sie wirklich Fabrice AI erhalten und nicht eine Mischung aus Fabrice AI und Chat GPT.   <\/p>\n\n<p>Es ist erw\u00e4hnenswert, dass ich einen langwierigen Weg genommen habe, um hierher zu gelangen.\nIch begann mit GPT3, war aber von den Ergebnissen entt\u00e4uscht.\nEs verwendete immer wieder die falschen Quellen, um die Fragen zu beantworten, obwohl einige Blogbeitr\u00e4ge genau die Antwort auf die gestellte Frage enthielten.\nObwohl ich zig Stunden damit verbracht habe, die richtigen Inhalte zu verwenden (worauf ich im n\u00e4chsten Blogbeitrag eingehen werde), habe ich nie Ergebnisse erhalten, mit denen ich zufrieden war.   <\/p>\n\n<p>Die Dinge verbesserten sich mit GPT3.5, waren aber immer noch entt\u00e4uschend.\nIch habe dann mit <a href=\"https:\/\/chatgpt.com\/gpts\/editor\/\" target=\"_blank\" data-type=\"link\" data-id=\"https:\/\/chatgpt.com\/gpts\/editor\/\" rel=\"noreferrer noopener\">GPT Builder<\/a> eine GPT-Anwendung im <a href=\"https:\/\/chatgpt.com\/gpts\" data-type=\"link\" data-id=\"https:\/\/chatgpt.com\/gpts\" target=\"_blank\" rel=\"noreferrer noopener\">GPT Store<\/a> erstellt.\nSie funktionierte etwas besser und war billiger im Betrieb.\nAllerdings konnte ich sie nicht auf meiner Website zum Laufen bringen, und sie war nur f\u00fcr bezahlte Abonnenten von Chat GPT verf\u00fcgbar, was ich als zu einschr\u00e4nkend empfand.\nUnabh\u00e4ngig davon gefiel mir die Qualit\u00e4t der Antworten nicht und ich f\u00fchlte mich nicht wohl dabei, sie f\u00fcr die \u00d6ffentlichkeit freizugeben.    <\/p>\n\n<p>Der Durchbruch kam mit der Ver\u00f6ffentlichung von <a href=\"https:\/\/platform.openai.com\/docs\/assistants\/overview\" data-type=\"link\" data-id=\"https:\/\/platform.openai.com\/docs\/assistants\/overview\" target=\"_blank\" rel=\"noreferrer noopener\">GPT Assistants<\/a> mit dem Modell 4o.\nOhne dass ich ihm sagen musste, welche Inhalte er verwenden sollte, fing er an, es selbst herauszufinden, und alles funktionierte einfach besser.\nIch habe den Ansatz der GPT-Anwendung aufgegeben und bin zur Verwendung der API zur\u00fcckgekehrt, so dass ich sie in den Blog einbetten konnte.\nDer Vollst\u00e4ndigkeit halber habe ich auch <a href=\"https:\/\/gemini.google.com\/app\" target=\"_blank\" data-type=\"link\" data-id=\"https:\/\/gemini.google.com\/app\" rel=\"noreferrer noopener\">Gemini<\/a> getestet, zog aber die Antworten von GPT4o vor.   <\/p>\n\n<p>Ich ver\u00f6ffentliche vorerst eine reine Textversion.\nSie enth\u00e4lt eine Voice-to-Text-Funktion, damit Sie Ihre Fragen per Stimme stellen k\u00f6nnen.\nIch spiele mit dem Gedanken, eine interaktive Version zu programmieren, die aussieht und sich anh\u00f6rt wie ich und mit der Sie ein Gespr\u00e4ch f\u00fchren k\u00f6nnen.\nIch habe einen funktionierenden Prototyp, bin aber mit den Ergebnissen und den m\u00f6glichen Kosten noch nicht zufrieden.\nIch m\u00f6chte sicherstellen, dass er in der ersten Person spricht, wirklich wie ich aussieht und klingt und mich nicht ein Verm\u00f6gen kostet.    <\/p>\n\n<p>Wir werden sehen, wie weit ich in den kommenden Monaten komme, aber es k\u00f6nnte sinnvoll sein, auf GPT5 zu warten.\nIm Nachhinein betrachtet h\u00e4tte ich Hunderte von Arbeitsstunden gespart, wenn ich einfach auf GPT4o gewartet h\u00e4tte, um Fabrice AI zu entwickeln.\nAndererseits war die Untersuchung ein Teil der Sache, und sie war super interessant.  <\/p>\n\n<p>In der Zwischenzeit spielen Sie bitte mit Fabrice AI und lassen Sie mich wissen, was Sie davon halten!<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Fabrice AI ist eine digitale Darstellung meiner Gedanken, die auf dem gesamten Inhalt meines Blogs basiert. Sie soll ein interaktiver, intelligenter Assistent sein, der in der Lage ist, komplexe Anfragen &hellip; <a href=\"https:\/\/fabricegrinda.com\/de\/wir-stellen-vor-fabrice-ai\/\" class=\"more-link\"><span class=\"screen-reader-text\">\u201eWir stellen vor: Fabrice AI\u201c<\/span> weiterlesen<\/a><\/p>\n","protected":false},"author":9,"featured_media":46115,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"footnotes":""},"categories":[337,940],"tags":[],"class_list":["post-46167","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-personliche-uberlegungen","category-technische-gadgets"],"acf":[],"contentUpdated":"Wir stellen vor: Fabrice AI. Categories - Pers\u00f6nliche \u00dcberlegungen, Technische Gadgets. Date-Posted - 2024-08-22T15:53:16 . \n Fabrice AI ist eine digitale Darstellung meiner Gedanken, die auf dem gesamten Inhalt meines Blogs basiert.\n Sie soll ein interaktiver, intelligenter Assistent sein, der in der Lage ist, komplexe Anfragen nuanciert und pr\u00e4zise zu verstehen und zu beantworten. \n Fabrice AI begann als Experiment, ein pers\u00f6nliches Bestreben, das Potenzial der k\u00fcnstlichen Intelligenz zu erforschen, indem ich eine digitale Version des umfangreichen Wissens schuf, das ich im Laufe der Jahre weitergegeben hatte.\n Urspr\u00fcnglich stellte ich mir dies als ein einfaches Projekt vor, das in wenigen Stunden abgeschlossen werden konnte.\n Der Plan war einfach: Ich lud meine Inhalte in die API von OpenAI hoch und erlaubte der KI, damit zu interagieren. Auf diese Weise entstand ein zug\u00e4nglicher, intelligenter Assistent, der auf der Grundlage der F\u00fclle an Informationen, die ich geteilt hatte, nuancierte Antworten geben konnte.  \n Als ich mich jedoch auf diese Reise begab, wurde schnell klar, dass die Aufgabe weitaus komplexer war, als ich erwartet hatte.\n Das Projekt, von dem ich dachte, dass es ein kurzer Ausflug in die KI sein w\u00fcrde, entwickelte sich schnell zu einem umfassenden und komplizierten Unterfangen, das weit mehr als nur ein oberfl\u00e4chliches Hochladen von Daten erforderte.\n Es wurde zu einem tiefen Eintauchen in die Feinheiten der KI, der nat\u00fcrlichen Sprachverarbeitung und des Wissensmanagements.  \n Die zentrale Herausforderung, vor der ich stand, bestand nicht nur darin, Informationen zu speichern, sondern der KI beizubringen, diese Informationen so zu verstehen, zu kontextualisieren und genau abzurufen, dass sie die Tiefe und Nuancierung meiner urspr\u00fcnglichen Inhalte widerspiegeln.\n Dies erforderte einen vielschichtigen Ansatz, da ich feststellte, dass einfache Methoden der Datenspeicherung und -abfrage f\u00fcr die Komplexit\u00e4t der Fragen, die ich Fabrice AI stellen wollte, nicht ausreichten. \n Die Reise f\u00fchrte mich durch eine breite Palette von Ans\u00e4tzen, von den ersten Versuchen mit Vektorsuchindizes bis hin zu fortgeschritteneren Methoden, die Wissensgraphen, Metadatenabfragen und ma\u00dfgeschneiderte KI-Modelle umfassen.\n Jeder Ansatz hatte seine eigenen St\u00e4rken und Schw\u00e4chen, und jeder lehrte mich etwas Neues \u00fcber die Komplexit\u00e4t der KI und die Feinheiten des digitalen Wissensmanagements.\n Den technischen Weg, den ich eingeschlagen habe, werde ich im n\u00e4chsten Blogbeitrag im Detail beschreiben.  \n Neben den technischen Problemen erwies sich auch die Erstellung einer umfassenden Wissensdatenbank als Herausforderung.\n In der Anfangsphase, in der ich die Genauigkeit der KI testete, wurde mir klar, dass die detailliertesten und genauesten Antworten auf einige Fragen diejenigen waren, die ich in Videointerviews oder Podcasts gegeben hatte.\n Um genau zu sein, musste die Wissensdatenbank alle meine Beitr\u00e4ge, Videointerviews, Podcasts, PowerPoint-Pr\u00e4sentationen, Bilder und PDF-Dokumente enthalten.  \n Ich begann mit der Transkription des gesamten Inhalts.\n Da die automatischen Transkriptionen anfangs nur ungef\u00e4hr sind, musste ich sicherstellen, dass die KI den Inhalt versteht.\n Das hat viel Zeit in Anspruch genommen, da ich die Antworten f\u00fcr jeden einzelnen transkribierten Inhalt testen musste.  \n Obwohl die Transkriptionen mich von dem anderen Sprecher trennten, dachte die KI zun\u00e4chst, dass 100% der gesprochenen Inhalte von mir stammten, was eine Menge weiteres Training erforderte, um sicherzustellen, dass sie beide Sprecher bei allen Inhalten korrekt unterscheiden konnte.\n Au\u00dferdem wollte ich, dass die KI von Fabrice den neueren Inhalten mehr Gewicht gibt.\n Als ich das zum ersten Mal ausprobierte, verwendete sie nat\u00fcrlich das Datum, an dem ich den Inhalt auf den LLM hochgeladen hatte, und nicht das Datum, an dem ich den Artikel urspr\u00fcnglich ver\u00f6ffentlicht hatte, was weitere Anpassungen erforderte.  \n Der Vollst\u00e4ndigkeit halber habe ich auch das Wissen in den Folien, die ich im Blog geteilt habe, transkribiert, indem ich das OCR-Modell in Azure f\u00fcr die Umwandlung von Bildern in Text verwendet und die Dateien dann in die Wissensdatenbank des GPT-Assistenten hochgeladen habe.\n Ebenso lud ich PDFs aus der Mediathek von WordPress herunter und lud sie in die Wissensdatenbank hoch. \n W\u00e4hrend des Betatests ist mir aufgefallen, dass viele meiner Freunde pers\u00f6nliche Fragen gestellt haben, die im Blog nicht behandelt wurden.\n Ich bin gespannt, welche Art von Fragen die Leute in den n\u00e4chsten Wochen stellen werden.\n Ich werde die Antworten vervollst\u00e4ndigen, falls sie mit den vorhandenen Inhalten in meinem Blog nicht gefunden werden k\u00f6nnen.\n Beachten Sie, dass ich die Antworten von Fabrice AI absichtlich auf den Inhalt des Blogs beschr\u00e4nke, damit Sie wirklich Fabrice AI erhalten und nicht eine Mischung aus Fabrice AI und Chat GPT.   \n Es ist erw\u00e4hnenswert, dass ich einen langwierigen Weg genommen habe, um hierher zu gelangen.\n Ich begann mit GPT3, war aber von den Ergebnissen entt\u00e4uscht.\n Es verwendete immer wieder die falschen Quellen, um die Fragen zu beantworten, obwohl einige Blogbeitr\u00e4ge genau die Antwort auf die gestellte Frage enthielten.\n Obwohl ich zig Stunden damit verbracht habe, die richtigen Inhalte zu verwenden (worauf ich im n\u00e4chsten Blogbeitrag eingehen werde), habe ich nie Ergebnisse erhalten, mit denen ich zufrieden war.   \n Die Dinge verbesserten sich mit GPT3.5, waren aber immer noch entt\u00e4uschend.\n Ich habe dann mit GPT Builder eine GPT-Anwendung im GPT Store erstellt.\n Sie funktionierte etwas besser und war billiger im Betrieb.\n Allerdings konnte ich sie nicht auf meiner Website zum Laufen bringen, und sie war nur f\u00fcr bezahlte Abonnenten von Chat GPT verf\u00fcgbar, was ich als zu einschr\u00e4nkend empfand.\n Unabh\u00e4ngig davon gefiel mir die Qualit\u00e4t der Antworten nicht und ich f\u00fchlte mich nicht wohl dabei, sie f\u00fcr die \u00d6ffentlichkeit freizugeben.    \n Der Durchbruch kam mit der Ver\u00f6ffentlichung von GPT Assistants mit dem Modell 4o.\n Ohne dass ich ihm sagen musste, welche Inhalte er verwenden sollte, fing er an, es selbst herauszufinden, und alles funktionierte einfach besser.\n Ich habe den Ansatz der GPT-Anwendung aufgegeben und bin zur Verwendung der API zur\u00fcckgekehrt, so dass ich sie in den Blog einbetten konnte.\n Der Vollst\u00e4ndigkeit halber habe ich auch Gemini getestet, zog aber die Antworten von GPT4o vor.   \n Ich ver\u00f6ffentliche vorerst eine reine Textversion.\n Sie enth\u00e4lt eine Voice-to-Text-Funktion, damit Sie Ihre Fragen per Stimme stellen k\u00f6nnen.\n Ich spiele mit dem Gedanken, eine interaktive Version zu programmieren, die aussieht und sich anh\u00f6rt wie ich und mit der Sie ein Gespr\u00e4ch f\u00fchren k\u00f6nnen.\n Ich habe einen funktionierenden Prototyp, bin aber mit den Ergebnissen und den m\u00f6glichen Kosten noch nicht zufrieden.\n Ich m\u00f6chte sicherstellen, dass er in der ersten Person spricht, wirklich wie ich aussieht und klingt und mich nicht ein Verm\u00f6gen kostet.    \n Wir werden sehen, wie weit ich in den kommenden Monaten komme, aber es k\u00f6nnte sinnvoll sein, auf GPT5 zu warten.\n Im Nachhinein betrachtet h\u00e4tte ich Hunderte von Arbeitsstunden gespart, wenn ich einfach auf GPT4o gewartet h\u00e4tte, um Fabrice AI zu entwickeln.\n Andererseits war die Untersuchung ein Teil der Sache, und sie war super interessant.  \n In der Zwischenzeit spielen Sie bitte mit Fabrice AI und lassen Sie mich wissen, was Sie davon halten!\n ","Category":["Pers\u00f6nliche \u00dcberlegungen","Technische Gadgets"],"_links":{"self":[{"href":"https:\/\/grinda.org\/de\/wp-json\/wp\/v2\/posts\/46167","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/grinda.org\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/grinda.org\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/grinda.org\/de\/wp-json\/wp\/v2\/users\/9"}],"replies":[{"embeddable":true,"href":"https:\/\/grinda.org\/de\/wp-json\/wp\/v2\/comments?post=46167"}],"version-history":[{"count":1,"href":"https:\/\/grinda.org\/de\/wp-json\/wp\/v2\/posts\/46167\/revisions"}],"predecessor-version":[{"id":46168,"href":"https:\/\/grinda.org\/de\/wp-json\/wp\/v2\/posts\/46167\/revisions\/46168"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/grinda.org\/de\/wp-json\/wp\/v2\/media\/46115"}],"wp:attachment":[{"href":"https:\/\/grinda.org\/de\/wp-json\/wp\/v2\/media?parent=46167"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/grinda.org\/de\/wp-json\/wp\/v2\/categories?post=46167"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/grinda.org\/de\/wp-json\/wp\/v2\/tags?post=46167"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}