{"id":46178,"date":"2024-08-22T15:53:16","date_gmt":"2024-08-22T15:53:16","guid":{"rendered":"https:\/\/fabricegrinda.com\/?p=46178"},"modified":"2024-08-22T15:53:33","modified_gmt":"2024-08-22T15:53:33","slug":"vi-praesenterer-fabrice-ai","status":"publish","type":"post","link":"https:\/\/grinda.org\/da\/vi-praesenterer-fabrice-ai\/","title":{"rendered":"Vi pr\u00e6senterer Fabrice AI"},"content":{"rendered":"\n<p><a href=\"https:\/\/fabriceai.fabricegrinda.com\/\" target=\"_blank\" data-type=\"link\" data-id=\"https:\/\/fabriceai.fabricegrinda.com\/\" rel=\"noreferrer noopener\">Fabrice AI<\/a> er en digital repr\u00e6sentation af mine tanker baseret p\u00e5 alt indholdet p\u00e5 min blog.\nDen er t\u00e6nkt som en interaktiv, intelligent assistent, der er i stand til at forst\u00e5 og svare p\u00e5 komplekse foresp\u00f8rgsler p\u00e5 en nuanceret og pr\u00e6cis m\u00e5de. <\/p>\n\n<p>Fabrice AI begyndte som et eksperiment, en personlig s\u00f8gen efter at udforske potentialet i kunstig intelligens ved at skabe en digital version af den omfattende viden, jeg havde delt i \u00e5renes l\u00f8b.\nOprindeligt forestillede jeg mig, at det var et ligetil projekt, som kunne gennemf\u00f8res i l\u00f8bet af f\u00e5 timer.\nPlanen var enkel: at uploade mit indhold til OpenAI&#8217;s API og lade AI&#8217;en interagere med det og derved skabe en tilg\u00e6ngelig, intelligent assistent, der kunne give nuancerede svar baseret p\u00e5 det v\u00e6ld af oplysninger, jeg havde delt.  <\/p>\n\n<p>Men da jeg begav mig ud p\u00e5 denne rejse, blev det hurtigt klart, at opgaven var langt mere kompleks, end jeg havde forventet.\nProjektet, som jeg troede ville v\u00e6re en kort afstikker til AI, udviklede sig hurtigt til et omfattende og indviklet projekt, der kr\u00e6vede langt mere end blot en overfladisk upload af data.\nDet blev til et dybt dyk ned i de indviklede aspekter af AI, naturlig sprogbehandling og vidensstyring.  <\/p>\n\n<p>Den centrale udfordring, jeg stod over for, handlede ikke kun om at lagre information, men ogs\u00e5 om at l\u00e6re den kunstige intelligens at forst\u00e5, kontekstualisere og genfinde informationen p\u00e5 en m\u00e5de, der afspejlede dybden og nuancerne i mit oprindelige indhold.\nDet kr\u00e6vede en mangesidet tilgang, da jeg opdagede, at simple metoder til datalagring og -hentning var utilstr\u00e6kkelige i forhold til kompleksiteten af de sp\u00f8rgsm\u00e5l, jeg \u00f8nskede, at Fabrice AI skulle h\u00e5ndtere. <\/p>\n\n<p>Rejsen f\u00f8rte mig gennem en lang r\u00e6kke tilgange, fra de f\u00f8rste fors\u00f8g p\u00e5 at bruge vektors\u00f8geindekser til mere avancerede metoder, der involverede vidensgrafer, metadatahentning og specialbyggede AI-modeller.\nHver tilgang havde sine egne styrker og svagheder, og hver gang l\u00e6rte jeg noget nyt om kompleksiteten i AI og nuancerne i digital vidensstyring.\nJeg vil beskrive den tekniske vej i detaljer i det n\u00e6ste blogindl\u00e6g.  <\/p>\n\n<p>Ud over de tekniske problemer viste det sig ogs\u00e5 at v\u00e6re en udfordring at skabe en udt\u00f8mmende vidensbase.\nI de tidlige faser med at teste AI&#8217;ens n\u00f8jagtighed gik det op for mig, at de mest detaljerede og n\u00f8jagtige svar p\u00e5 nogle sp\u00f8rgsm\u00e5l var dem, jeg gav i videointerviews eller podcasts.\nFor at v\u00e6re pr\u00e6cis havde jeg brug for, at vidensbasen indeholdt alle mine indl\u00e6g, videointerviews, podcasts, PowerPoint-pr\u00e6sentationer, billeder og PDF-dokumenter.  <\/p>\n\n<p>Jeg startede med at transskribere alt indholdet.\nDa de automatiske transskriptioner er omtrentlige til at begynde med, var jeg n\u00f8dt til at sikre mig, at AI&#8217;en forstod indholdet.\nDet tog lang tid, da jeg var n\u00f8dt til at teste svarene for hvert stykke transskriberet indhold.  <\/p>\n\n<p>Selvom transskriptionerne adskilte mig fra den anden taler, troede AI&#8217;en f\u00f8rst, at 100 % af det talte indhold var mit, hvilket kr\u00e6vede en masse yderligere tr\u00e6ning for at sikre, at den kunne skelne mellem begge talere korrekt p\u00e5 alt indhold.\nJeg \u00f8nskede ogs\u00e5, at Fabrice AI skulle l\u00e6gge mere v\u00e6gt p\u00e5 nyere indhold.\nF\u00f8rste gang jeg pr\u00f8vede det, brugte den selvf\u00f8lgelig den dato, hvor jeg uploadede indholdet til LLM, i stedet for den dato, hvor jeg oprindeligt postede artiklen, hvilket kr\u00e6vede yderligere justeringer.  <\/p>\n\n<p>For fuldst\u00e6ndighedens skyld transskriberede jeg ogs\u00e5 viden i slides, som jeg delte p\u00e5 bloggen, ved at bruge OCR-modellen i Azure til konvertering af billeder til tekst og uploadede derefter filerne til GPT-assistentens vidensbase.\nP\u00e5 samme m\u00e5de downloadede jeg PDF&#8217;er fra WordPress&#8217; mediebibliotek og uploadede dem til vidensbasen. <\/p>\n\n<p>Under betatesten lagde jeg m\u00e6rke til, at mange af mine venner stillede personlige sp\u00f8rgsm\u00e5l, som ikke blev d\u00e6kket p\u00e5 bloggen.\nJeg venter p\u00e5 at se, hvilke typer sp\u00f8rgsm\u00e5l folk stiller i l\u00f8bet af de n\u00e6ste par uger.\nJeg vil f\u00e6rdigg\u00f8re svarene, hvis de ikke kan findes med det eksisterende indhold p\u00e5 min blog.\nBem\u00e6rk, at jeg med vilje begr\u00e6nser svarene fra Fabrice AI til indholdet p\u00e5 bloggen, s\u00e5 du virkelig f\u00e5r Fabrice AI og ikke en blanding af Fabrice AI og Chat GPT.   <\/p>\n\n<p>Det er v\u00e6rd at n\u00e6vne, at jeg tog en lang vej for at n\u00e5 hertil.\nJeg startede med at bruge GPT3, men blev skuffet over resultaterne.\nDen blev ved med at bruge de forkerte kilder til at besvare sp\u00f8rgsm\u00e5lene, selv om nogle blogindl\u00e6g havde pr\u00e6cis det svar, som sp\u00f8rgsm\u00e5let l\u00f8d p\u00e5.\nSelv om jeg brugte mange timer p\u00e5 at fors\u00f8ge at f\u00e5 den til at bruge det rigtige indhold (hvilket jeg vil fort\u00e6lle om i n\u00e6ste blogindl\u00e6g), fik jeg aldrig resultater, jeg var tilfreds med.   <\/p>\n\n<p>Det blev bedre med GPT3.5, men det var stadig skuffende.\nDerefter byggede jeg en GPT-applikation i <a href=\"https:\/\/chatgpt.com\/gpts\" data-type=\"link\" data-id=\"https:\/\/chatgpt.com\/gpts\" target=\"_blank\" rel=\"noreferrer noopener\">GPT Store<\/a> ved hj\u00e6lp af <a href=\"https:\/\/chatgpt.com\/gpts\" data-type=\"link\" data-id=\"https:\/\/chatgpt.com\/gpts\" target=\"_blank\" rel=\"noreferrer noopener\">GPT<\/a> <a href=\"https:\/\/chatgpt.com\/gpts\/editor\/\" target=\"_blank\" data-type=\"link\" data-id=\"https:\/\/chatgpt.com\/gpts\/editor\/\" rel=\"noreferrer noopener\">Builder.<\/a>\nDet fungerede lidt bedre og var billigere i drift.\nMen jeg kunne ikke f\u00e5 den til at k\u00f8re p\u00e5 min hjemmeside, og den var kun tilg\u00e6ngelig for betalende abonnenter p\u00e5 Chat GPT, hvilket jeg f\u00f8lte var for begr\u00e6nsende.\nUanset hvad var jeg ikke vild med kvaliteten af svarene og havde det ikke godt med at frigive den til offentligheden.    <\/p>\n\n<p>Gennembruddet kom med udgivelsen af <a href=\"https:\/\/platform.openai.com\/docs\/assistants\/overview\" data-type=\"link\" data-id=\"https:\/\/platform.openai.com\/docs\/assistants\/overview\" target=\"_blank\" rel=\"noreferrer noopener\">GPT Assistants<\/a>, der bruger model 4o.\nUden at jeg beh\u00f8vede at fort\u00e6lle den, hvilket indhold den skulle bruge, begyndte den selv at finde ud af det, og alt fungerede bare bedre.\nJeg droppede GPT-applikationen og gik tilbage til at bruge API&#8217;en, s\u00e5 jeg kunne integrere den p\u00e5 bloggen.\nFor fuldst\u00e6ndighedens skyld testede jeg ogs\u00e5 <a href=\"https:\/\/gemini.google.com\/app\" target=\"_blank\" data-type=\"link\" data-id=\"https:\/\/gemini.google.com\/app\" rel=\"noreferrer noopener\">Gemini,<\/a> men jeg foretrak svarene fra GPT4o.   <\/p>\n\n<p>Jeg udgiver en ren tekstversion indtil videre.\nDen indeholder en stemme-til-tekst-funktion, s\u00e5 du kan stille dine sp\u00f8rgsm\u00e5l med stemmen.\nJeg leger med et par m\u00e5der at kode en interaktiv version, der ser ud og lyder som mig, og som man kan f\u00f8re en samtale med.\nJeg har en fungerende prototype, men er langt fra tilfreds med resultaterne og de potentielle omkostninger.\nJeg vil v\u00e6re sikker p\u00e5, at den taler i f\u00f8rste person, virkelig ser ud og lyder som mig og ikke koster en arm og et ben for mig at betjene.    <\/p>\n\n<p>Vi m\u00e5 se, hvor langt jeg kommer i de kommende m\u00e5neder, men m\u00e5ske giver det bare mening at vente p\u00e5 GPT5.\nSet i bakspejlet ville jeg have sparet hundredvis af arbejdstimer, hvis jeg bare havde ventet p\u00e5 GPT4o med at udvikle Fabrice AI.\nMen p\u00e5 den anden side var unders\u00f8gelsen en del af pointen, og den var super interessant.  <\/p>\n\n<p>I mellemtiden kan du lege med Fabrice AI og fort\u00e6lle mig, hvad du synes!<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Fabrice AI er en digital repr\u00e6sentation af mine tanker baseret p\u00e5 alt indholdet p\u00e5 min blog. Den er t\u00e6nkt som en interaktiv, intelligent assistent, der er i stand til at &hellip; <a href=\"https:\/\/grinda.org\/da\/vi-praesenterer-fabrice-ai\/\" class=\"more-link\">L\u00e6s videre<span class=\"screen-reader-text\"> &#8220;Vi pr\u00e6senterer Fabrice AI&#8221;<\/span><\/a><\/p>\n","protected":false},"author":9,"featured_media":46112,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"footnotes":""},"categories":[514,944],"tags":[],"class_list":["post-46178","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-personlige-overvejelser","category-tekniske-gadgets"],"acf":[],"contentUpdated":"Vi pr\u00e6senterer Fabrice AI. Categories - Personlige overvejelser, Tekniske gadgets. Date-Posted - 2024-08-22T15:53:16 . \n Fabrice AI er en digital repr\u00e6sentation af mine tanker baseret p\u00e5 alt indholdet p\u00e5 min blog.\n Den er t\u00e6nkt som en interaktiv, intelligent assistent, der er i stand til at forst\u00e5 og svare p\u00e5 komplekse foresp\u00f8rgsler p\u00e5 en nuanceret og pr\u00e6cis m\u00e5de. \n Fabrice AI begyndte som et eksperiment, en personlig s\u00f8gen efter at udforske potentialet i kunstig intelligens ved at skabe en digital version af den omfattende viden, jeg havde delt i \u00e5renes l\u00f8b.\n Oprindeligt forestillede jeg mig, at det var et ligetil projekt, som kunne gennemf\u00f8res i l\u00f8bet af f\u00e5 timer.\n Planen var enkel: at uploade mit indhold til OpenAI&#8217;s API og lade AI&#8217;en interagere med det og derved skabe en tilg\u00e6ngelig, intelligent assistent, der kunne give nuancerede svar baseret p\u00e5 det v\u00e6ld af oplysninger, jeg havde delt.  \n Men da jeg begav mig ud p\u00e5 denne rejse, blev det hurtigt klart, at opgaven var langt mere kompleks, end jeg havde forventet.\n Projektet, som jeg troede ville v\u00e6re en kort afstikker til AI, udviklede sig hurtigt til et omfattende og indviklet projekt, der kr\u00e6vede langt mere end blot en overfladisk upload af data.\n Det blev til et dybt dyk ned i de indviklede aspekter af AI, naturlig sprogbehandling og vidensstyring.  \n Den centrale udfordring, jeg stod over for, handlede ikke kun om at lagre information, men ogs\u00e5 om at l\u00e6re den kunstige intelligens at forst\u00e5, kontekstualisere og genfinde informationen p\u00e5 en m\u00e5de, der afspejlede dybden og nuancerne i mit oprindelige indhold.\n Det kr\u00e6vede en mangesidet tilgang, da jeg opdagede, at simple metoder til datalagring og -hentning var utilstr\u00e6kkelige i forhold til kompleksiteten af de sp\u00f8rgsm\u00e5l, jeg \u00f8nskede, at Fabrice AI skulle h\u00e5ndtere. \n Rejsen f\u00f8rte mig gennem en lang r\u00e6kke tilgange, fra de f\u00f8rste fors\u00f8g p\u00e5 at bruge vektors\u00f8geindekser til mere avancerede metoder, der involverede vidensgrafer, metadatahentning og specialbyggede AI-modeller.\n Hver tilgang havde sine egne styrker og svagheder, og hver gang l\u00e6rte jeg noget nyt om kompleksiteten i AI og nuancerne i digital vidensstyring.\n Jeg vil beskrive den tekniske vej i detaljer i det n\u00e6ste blogindl\u00e6g.  \n Ud over de tekniske problemer viste det sig ogs\u00e5 at v\u00e6re en udfordring at skabe en udt\u00f8mmende vidensbase.\n I de tidlige faser med at teste AI&#8217;ens n\u00f8jagtighed gik det op for mig, at de mest detaljerede og n\u00f8jagtige svar p\u00e5 nogle sp\u00f8rgsm\u00e5l var dem, jeg gav i videointerviews eller podcasts.\n For at v\u00e6re pr\u00e6cis havde jeg brug for, at vidensbasen indeholdt alle mine indl\u00e6g, videointerviews, podcasts, PowerPoint-pr\u00e6sentationer, billeder og PDF-dokumenter.  \n Jeg startede med at transskribere alt indholdet.\n Da de automatiske transskriptioner er omtrentlige til at begynde med, var jeg n\u00f8dt til at sikre mig, at AI&#8217;en forstod indholdet.\n Det tog lang tid, da jeg var n\u00f8dt til at teste svarene for hvert stykke transskriberet indhold.  \n Selvom transskriptionerne adskilte mig fra den anden taler, troede AI&#8217;en f\u00f8rst, at 100 % af det talte indhold var mit, hvilket kr\u00e6vede en masse yderligere tr\u00e6ning for at sikre, at den kunne skelne mellem begge talere korrekt p\u00e5 alt indhold.\n Jeg \u00f8nskede ogs\u00e5, at Fabrice AI skulle l\u00e6gge mere v\u00e6gt p\u00e5 nyere indhold.\n F\u00f8rste gang jeg pr\u00f8vede det, brugte den selvf\u00f8lgelig den dato, hvor jeg uploadede indholdet til LLM, i stedet for den dato, hvor jeg oprindeligt postede artiklen, hvilket kr\u00e6vede yderligere justeringer.  \n For fuldst\u00e6ndighedens skyld transskriberede jeg ogs\u00e5 viden i slides, som jeg delte p\u00e5 bloggen, ved at bruge OCR-modellen i Azure til konvertering af billeder til tekst og uploadede derefter filerne til GPT-assistentens vidensbase.\n P\u00e5 samme m\u00e5de downloadede jeg PDF&#8217;er fra WordPress&#8217; mediebibliotek og uploadede dem til vidensbasen. \n Under betatesten lagde jeg m\u00e6rke til, at mange af mine venner stillede personlige sp\u00f8rgsm\u00e5l, som ikke blev d\u00e6kket p\u00e5 bloggen.\n Jeg venter p\u00e5 at se, hvilke typer sp\u00f8rgsm\u00e5l folk stiller i l\u00f8bet af de n\u00e6ste par uger.\n Jeg vil f\u00e6rdigg\u00f8re svarene, hvis de ikke kan findes med det eksisterende indhold p\u00e5 min blog.\n Bem\u00e6rk, at jeg med vilje begr\u00e6nser svarene fra Fabrice AI til indholdet p\u00e5 bloggen, s\u00e5 du virkelig f\u00e5r Fabrice AI og ikke en blanding af Fabrice AI og Chat GPT.   \n Det er v\u00e6rd at n\u00e6vne, at jeg tog en lang vej for at n\u00e5 hertil.\n Jeg startede med at bruge GPT3, men blev skuffet over resultaterne.\n Den blev ved med at bruge de forkerte kilder til at besvare sp\u00f8rgsm\u00e5lene, selv om nogle blogindl\u00e6g havde pr\u00e6cis det svar, som sp\u00f8rgsm\u00e5let l\u00f8d p\u00e5.\n Selv om jeg brugte mange timer p\u00e5 at fors\u00f8ge at f\u00e5 den til at bruge det rigtige indhold (hvilket jeg vil fort\u00e6lle om i n\u00e6ste blogindl\u00e6g), fik jeg aldrig resultater, jeg var tilfreds med.   \n Det blev bedre med GPT3.5, men det var stadig skuffende.\n Derefter byggede jeg en GPT-applikation i GPT Store ved hj\u00e6lp af GPT Builder.\n Det fungerede lidt bedre og var billigere i drift.\n Men jeg kunne ikke f\u00e5 den til at k\u00f8re p\u00e5 min hjemmeside, og den var kun tilg\u00e6ngelig for betalende abonnenter p\u00e5 Chat GPT, hvilket jeg f\u00f8lte var for begr\u00e6nsende.\n Uanset hvad var jeg ikke vild med kvaliteten af svarene og havde det ikke godt med at frigive den til offentligheden.    \n Gennembruddet kom med udgivelsen af GPT Assistants, der bruger model 4o.\n Uden at jeg beh\u00f8vede at fort\u00e6lle den, hvilket indhold den skulle bruge, begyndte den selv at finde ud af det, og alt fungerede bare bedre.\n Jeg droppede GPT-applikationen og gik tilbage til at bruge API&#8217;en, s\u00e5 jeg kunne integrere den p\u00e5 bloggen.\n For fuldst\u00e6ndighedens skyld testede jeg ogs\u00e5 Gemini, men jeg foretrak svarene fra GPT4o.   \n Jeg udgiver en ren tekstversion indtil videre.\n Den indeholder en stemme-til-tekst-funktion, s\u00e5 du kan stille dine sp\u00f8rgsm\u00e5l med stemmen.\n Jeg leger med et par m\u00e5der at kode en interaktiv version, der ser ud og lyder som mig, og som man kan f\u00f8re en samtale med.\n Jeg har en fungerende prototype, men er langt fra tilfreds med resultaterne og de potentielle omkostninger.\n Jeg vil v\u00e6re sikker p\u00e5, at den taler i f\u00f8rste person, virkelig ser ud og lyder som mig og ikke koster en arm og et ben for mig at betjene.    \n Vi m\u00e5 se, hvor langt jeg kommer i de kommende m\u00e5neder, men m\u00e5ske giver det bare mening at vente p\u00e5 GPT5.\n Set i bakspejlet ville jeg have sparet hundredvis af arbejdstimer, hvis jeg bare havde ventet p\u00e5 GPT4o med at udvikle Fabrice AI.\n Men p\u00e5 den anden side var unders\u00f8gelsen en del af pointen, og den var super interessant.  \n I mellemtiden kan du lege med Fabrice AI og fort\u00e6lle mig, hvad du synes!\n ","Category":["Personlige overvejelser","Tekniske gadgets"],"_links":{"self":[{"href":"https:\/\/grinda.org\/da\/wp-json\/wp\/v2\/posts\/46178","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/grinda.org\/da\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/grinda.org\/da\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/grinda.org\/da\/wp-json\/wp\/v2\/users\/9"}],"replies":[{"embeddable":true,"href":"https:\/\/grinda.org\/da\/wp-json\/wp\/v2\/comments?post=46178"}],"version-history":[{"count":1,"href":"https:\/\/grinda.org\/da\/wp-json\/wp\/v2\/posts\/46178\/revisions"}],"predecessor-version":[{"id":46180,"href":"https:\/\/grinda.org\/da\/wp-json\/wp\/v2\/posts\/46178\/revisions\/46180"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/grinda.org\/da\/wp-json\/wp\/v2\/media\/46112"}],"wp:attachment":[{"href":"https:\/\/grinda.org\/da\/wp-json\/wp\/v2\/media?parent=46178"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/grinda.org\/da\/wp-json\/wp\/v2\/categories?post=46178"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/grinda.org\/da\/wp-json\/wp\/v2\/tags?post=46178"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}