Share

Din hver-anden-ugentlige dosis AI-nyheder 🍽️
 ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌

Tillykke! Du har lige vundet en backstage-billet til AIgendaens maskinrum 🎟️


I dag tager vi dig med behind-the-scenes på en vigtig del af tilblivelsen af dette nyhedsbrev.


Vi præsenterer dig nemlig for vores AI-newshound, som hver dag automatisk sender et AI-nyhedsoverblik direkte til vores kommunikationsplatform, Slack. Det er her, vi håndplukker de allerbedste historier, som vi så skriver uddybende om i nyhedsbrevet her.


Desuden producerer vores newshound også en kort, daglig podcast, så vi hver dag kan synke de seneste AI-nyheder ned sammen med morgenkaffen eller i bilen på vej til arbejde ☕️


AIgendaen er det primære punkt på AIgendaen i dag. Meget meta af os, vi ved det godt.


Og for at gøre det endnu mere meta, så er virksomheden Meta også på AIgendaen med nyheder fra deres Connect-show. Derudover skal vi igennem en opdatering af Microsofts Copilot, Open AI's lancering af Advanced Voice Mode og ikke mindst et kommende paradigmeskifte inden for AI.


Så, som Jakob Kjeldbjerg ville sige det: Sæt i gang!


P.S. Hvis du kan lide, hvad du læser, så tøv ikke med at sende AIgendaen videre til kolleger, venner eller fjerne familiemedlemmer. Vi vil så gerne have så mange med på AIgendaen som muligt. Her er et smart link.



Vertica Newshound: Sådan får vi automatiserede AI-nyheder – og en daglig podcast til morgenkaffen


En af de helt store AI-lanceringer i september 2024 har været podcast-formatet i Googles NotebookLM, som har sprængt alverdens hjerner på tværs af LinkedIn, X, Medium og deslige.


For udover at være en sprogmodel kan NotebookLM nu også tage dine noter og omdanne det til en to-personers podcast, hvor værterne på realistisk vis diskuterer det emne, som dine noter lægger op til. Prøv selv at lytte til lydfilen fra Googles eget eksempel på siden her.


Det er ganske enkelt imponerende.


Og nu er det ikke for at blære os men… vi har faktisk gjort noget lignende i lang tid i forbindelse med indsamlingen af AI-nyheder til vores AI-team og til dette nyhedsbrev.


Hos Vertica har vi nemlig vores egen AI-newshound, som opsnuser de seneste AI-nyheder fra relevante medier og automatisk sender et dagligt overblik til os på skrift - ligesom den også producerer en kort podcast til os med dagens vigtigste historier.


Måske den kan inspirere dig til, hvordan du også kan følge med i tendenserne inden for dit felt uden at blive skyllet væk af den massive nyhedsstrøm?


Det kunne for eksempel være nyheder inden for finansverdenen, politik, medicinalindustrien eller IT-branchen. Men selvfølgelig ikke AI, for du er jo allerede tilmeldt AIgendaen, ik' 😇


Læs mere om NotebookLM og Vertica Newshound her

Alt det største fra Meta Connect


I sidste uge var Mark Zuckerberg på scenen til det store Meta Connect-show, hvor han fremviste Metas nye produkter.


I AI-regi var det mest interessante demoen af deres Orion-briller. Et sæt AR-briller, der blender den fysiske og digitale verden sammen. Brillerne kommer dog ikke på markedet lige foreløbigt, men det er et smugkig på, hvad der venter på den front.


Derudover lancerede Zuckerberg også deres nyeste AI-model, Llama 3.2, som er multi-modal, hvilket giver nogle vilde muligheder for brug af AI til både tekst, billeder og video i apps som WhatsApp, Messenger, Instagram og selvfølgelig Facebook. Dog ikke i EU for nu...

Se hele Meta Connect på 12 minutter

Microsofts Copilot bliver endnu mere flyvende med Wave 2


Cirka et år efter at Microsoft første gang lancerede Copilot i deres tjenester er de nu klar med anden bølge - med det passende navn Wave 2.


Det primære salgspunkt er en bedre sammenkogbling på tværs af Microsoft 365-økosystemet. Blandt andet kan Copilot nu skrive Python-kode direkte i Excel, PowerPoint kan give et bud på din præsentations storytelling, og Outlook kan prioritere og sortere dine mails.


Wave 2 rulles ud løbende fra nu og frem til marts 2025.


Se Microsofts præsentation af Wave 2

Build the way you want

OpenAI ruller Advanced Voice Mode ud til alle andre end EU


I den allerførste udgave af AIgendaen skrev vi, at OpenAI soft-launchede deres Advanced Voice Mode.


Nu har de så lanceret stemme-funktionen til langt de fleste betalende brugere af ChatGPT. Undervejs har de blandt andet ændret looket og tilføjet 5 nye stemmer (og ingen af dem lyder som Scarlett Johansson).


Men betalende brugere i det meste af Europa må kigge langt efter AVM. EU har nemlig efter sigende blokeret for stemme-funktionen, da den kan bruges til at afkode brugerens følelser - hvilket er et af de primære no-go's i deres AI Act.


Så det varer nok en rum tid endnu, før du kan tale med ChatGPT på dansk.


Læs om Advanced Voice Mode her

Paradigme-skifte på vej inden for AI?


OpenAI's nyeste o1-model repræsenterer et paradigmeskifte inden for AI. I hvert fald hvis man skal lytte virksomhedens egen forsker, Noam Brown, der arbejder med AI-modellernes evner til "reasoning" og kontekstforståelse.


Han mener, at o1-modellens nye evner inden for matematik og logisk tænkning rykker AI-modellerne fra at være intelligente chatbots til at være brugbare forskningsassistenter - eller endda lave nyskabende forskning i sig selv.


Brown har selv påpeget, at o1 stadig kan lave helt basale fejl, men han siger samtidigt at skalaen for, hvor hurtigt modellerne forbedrer sig gør, at der er tale om et paradigmeskifte.


Ambitionen for OpenAI er at lade o1 bruge flere timer, dage eller endda uger på sine svar for at se, hvad den kan komme frem til og træne dens logiske sans mere og mere.


Det er en dyr proces, men som Brown selv siger: Hvilken pris ville du betale for en kur på kræft? Eller for en bedre måde at lave batterier på? Eller for et matematisk bevis på Riemann-hypotesen?


Læs en længere forklaring af paradigmeskiftet som o1 repræsenterer


Rasmus' Toolbox


Hvor mange ressourcer bruger dit produkt-team på at berige produktdata i jeres PIM-system, så der er gennemskuelig tagging og generel orden i penalhuset? 🤔


For de fleste e-commerce virksomheder er det en proces, der æder overraskende mange timer om måneden. Men med AI kan du spare en stor del af tiden og besværet.


Ved hjælp af billedgenkendelse kan AI nemlig afkode de vigtigste informationer fra dine produkter - uanset om det er sportstøj eller fødevarer - og berige dataene i dit PIM-system. Rasmus forklarer, hvordan det fungerer, i videoen her.


Berig dine produkttekster med AI


Bedste hilsner,
Anna Katrine Matthiesen
AI Team Lead


+45 22 17 21 34
akm@vertica.dk