Artwork

Player FM - Internet Radio Done Right

14 subscribers

Checked 1d ago
Toegevoegd vier jaar geleden
Inhoud geleverd door Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon. Alle podcastinhoud, inclusief afleveringen, afbeeldingen en podcastbeschrijvingen, wordt rechtstreeks geüpload en geleverd door Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon of hun podcastplatformpartner. Als u denkt dat iemand uw auteursrechtelijk beschermde werk zonder uw toestemming gebruikt, kunt u het hier beschreven proces https://nl.player.fm/legal volgen.
Player FM - Podcast-app
Ga offline met de app Player FM !
icon Daily Deals

Episode 157 - English AI generated : KS Pulse - LLM2Vec, ImageInWords

4:53
 
Delen
 

Manage episode 417053930 series 2911119
Inhoud geleverd door Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon. Alle podcastinhoud, inclusief afleveringen, afbeeldingen en podcastbeschrijvingen, wordt rechtstreeks geüpload en geleverd door Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon of hun podcastplatformpartner. Als u denkt dat iemand uw auteursrechtelijk beschermde werk zonder uw toestemming gebruikt, kunt u het hier beschreven proces https://nl.player.fm/legal volgen.

Send us a text

Englisch Version - The German Version also exists, but content differs minimal:
AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 min. small packages generated by an AI every day.
It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created.
Accordingly, we cannot always guarantee accuracy.
LLM2Vec: Large Language Models Are Secretly Powerful Text Encoders - https://arxiv.org/pdf/2404.05961;
ImageInWords: Unlocking Hyper-Detailed Image Descriptions - https://arxiv.org/pdf/2405.02793
It would be great if you could compare the German version to the English version and give us feedback.

Support the show

  continue reading

219 afleveringen

Artwork
iconDelen
 
Manage episode 417053930 series 2911119
Inhoud geleverd door Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon. Alle podcastinhoud, inclusief afleveringen, afbeeldingen en podcastbeschrijvingen, wordt rechtstreeks geüpload en geleverd door Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon of hun podcastplatformpartner. Als u denkt dat iemand uw auteursrechtelijk beschermde werk zonder uw toestemming gebruikt, kunt u het hier beschreven proces https://nl.player.fm/legal volgen.

Send us a text

Englisch Version - The German Version also exists, but content differs minimal:
AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 min. small packages generated by an AI every day.
It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created.
Accordingly, we cannot always guarantee accuracy.
LLM2Vec: Large Language Models Are Secretly Powerful Text Encoders - https://arxiv.org/pdf/2404.05961;
ImageInWords: Unlocking Hyper-Detailed Image Descriptions - https://arxiv.org/pdf/2405.02793
It would be great if you could compare the German version to the English version and give us feedback.

Support the show

  continue reading

219 afleveringen

Alle afleveringen

×
 
Send us a text In der 199. Folge von Knowledge Science betrachten Sigurd Schacht und Carsten Lanquillon ein aktuelles Paper zur Kontrolle von LLM-Agenten. Sie diskutieren die Herausforderungen und Strategien zur Eindämmung unerwünschten Verhaltens bis hin zur Superintelligenz und vergleichen diese mit traditionellen Wirtschaftsprüfungen. Ein Muss für alle, die die Steuerung fortschrittlicher KI-Modelle besser verstehen wollen! Korbak et.al.: How to evaluate control measures for LLM agents? https://arxiv.org/pdf/2504.05259v1 📅 **Verpassen Sie nicht das Live-Event:** Mittwoch, 16. April, 18:30 Uhr im Club Stereo, Nürnberg. Feiern Sie mit uns die 200. Episode und knüpfen Sie spannende Kontakte! Support the show…
 
Send us a text In dieser Podcast-Folge stellen Sigurd Schacht und Carsten Lanquillon das Konzept eines "Personal Context Managers" vor, der die Arbeit mit verschiedenen KI-Sprachmodellen effizienter gestaltet. Die Idee besteht darin, persönliche Präferenzen, Projektziele und Wissensstände in einer strukturierten Datei zu speichern, die zu Beginn jeder KI-Konversation geteilt werden kann. Sigurd berichtet von seiner positiven Erfahrung mit dieser Methode bei einem Forschungsprojekt, wobei das KI-Modell maßgeschneiderte Antworten mit Visualisierungen lieferte. Besonders wertvoll ist die Möglichkeit, das Kontext-File am Ende einer Sitzung durch das KI-Modell aktualisieren zu lassen, sodass es mit dem Wissensfortschritt mitwächst. Die Hosts sehen großes Potenzial für den Einsatz in der Bildung, wo Dozenten Kurs-Kontext-Files erstellen könnten, die Studierende mit ihren individuellen Präferenzen kombinieren würden. Die Idee stammt von dem Backend-Entwickler Mike Shevchenko und ist laut den Hosts überraschend einfach umzusetzen und dabei enorm wirksam. https://github.com/mikhashev/personal-context-manager/tree/main Support the show…
 
Send us a text Tauchen Sie ein in die spannende Welt des Model-Context-Protokolls (MCP)! In dieser Episode des Knowledge Science Podcasts erkunden wir, wie dieses neuartige Kommunikationsprotokoll die Interaktion zwischen KI-Modellen, Datenbanken und Tools revolutioniert. Sigurd Schacht und Carsten Lanquillon diskutieren die Grundlagen, Vorteile und das Potenzial eines einheitlichen Standards, der die Nutzung von KI in Unternehmen und darüber hinaus transformieren wird. Support the show…
 
Send us a text In dieser spannenden Folge von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon tief in die Welt der Benchmarks und Evaluierungsmethoden für KI ein. Wie weit sind wir noch von einer KI, die menschliche Aufgaben vollumfänglich ersetzen kann? Welche Faktoren beeinflussen die Messbarkeit von KI-Leistung? Und welche Rolle spielen Reasoning-Modelle in der Zukunft der künstlichen Intelligenz? Entdecken Sie faszinierende Erkenntnisse und diskutierte Prognosen über den aktuellen Stand und die zukünftige Entwicklung von KI. Paper in dieser Episode: https://metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks/ Support the show…
 
Send us a text In dieser Episode von "Knowledge Science" diskutieren Sigurd Schacht und Carsten Lanquillon über das vielschichtige Thema des Reward Hacking in KI-Modellen. Anhand des aktuellen Papers von OpenAI tauchen wir tief in die Mechanismen ein, die künstliche Intelligenzen dazu bringen, den einfachsten Weg zur Zielerfüllung zu wählen – und warum das nicht immer gewünscht ist. Außerdem wird die Rolle von Multi-Agenten-Systemen und moralischen Erwägungen beleuchtet. Erfahren Sie, wie diese Dynamiken in realen Anwendungen reflektiert werden und welche spannenden Forschungsfragen sich daraus ergeben. Link zum Paper: https://openai.com/index/chain-of-thought-monitoring/ Support the show…
 
Send us a text In dieser Episode des Knowledge Science Podcasts berichten wir über unser aktuelles Paper, in dem wir der Frage nachgegangen sind, ob LLMs ein inneres Moralverständnis haben bzw. entwickeln. Könen wir spezielle Bereiche des Sprachmodells identifizieren, das für Moral zuständig ist und können wir diese Bereiche beeinflussen. Außerdem beleuchten wir die aufregende Bewegung hin zu Open Science und wie internationale Zusammenarbeit dabei eine wichtige Rolle spielt. Link zum Blog: https://www.coairesearch.org/research/mapping-moral-reasoning Support the show…
 
Send us a text Entdecken Sie die aufregenden Entwicklungen und die drängenden Herausforderungen im Bereich der künstlichen Intelligenz. Sigurd Schacht und Carsten Lanquillon diskutieren die jüngsten KI-Gipfel in Europa sowie die erste Konferenz zu Safe & Ethical AI (International Association for Safe & Ethical AI), beleuchten das Mega-Wettrüsten um die KI-Superintelligenz und hinterfragen, wie Regulierung, Safety und Innovation Hand in Hand gehen können, um eine sichere Zukunft zu gestalten. Support the show…
 
Send us a text In dieser Episode des Knowledge Science Podcasts diskutieren Sigurd Schacht und Carsten Lanquillon die Gründung des neuen Forschungsinstituts COAI Research und dessen wichtige Rolle für die Entwicklung sicherer, menschenorientierter Künstlicher Intelligenz. Die beiden Podcaster stellen ihre Vision vor, COAI zu einem der führende Forschungsinstitut der EU im Bereich Human Compatible AI zu etablieren. COAI Research konzentriert sich auf systematische Analysen und Risikominderung bei KI-Systemen, um sicherzustellen, dass diese mit menschlichen Werten und Zielen in Einklang stehen. Zentrale Forschungsschwerpunkte sind: AI Control und Alignment-Analyse Risiko-Erkennung und -Minderung (inkl. Red-Teaming) Interpretierbarkeit von KI-Systemen mit Fokus auf Sicherheit Analyse der Verarbeitung menschlicher Werte in KI-Systemen Die Episode gibt außerdem Einblicke in aktuelle Forschungsprojekte, darunter die Analyse von täuschendem KI-Verhalten und die Entwicklung eines Dashboards zur Erkennung moralischer Ausprägungen in KI-Modellen. Beide sehen in KI enormes Potenzial für gesellschaftlichen Fortschritt, betonen aber die Notwendigkeit sorgfältiger Sicherheitsforschung, um Risiken zu minimieren und einen verantwortungsvollen Einsatz zu gewährleisten. Link zur Researchseite: http://coairesearch.de/ Support the show…
 
Send us a text This is a special Episode. First, we make it in English. Second, we fokus on the new gamechanger model DeepSeel R1. But not on its capabilities but rather on security concerns. We did some early AI Safety Research to identify how safe R1 is and came to alarming results! In our setup, we found out that the model performs unsafe autonomous activity that could harm human beings without even being prompted. During an autonomous setup, the model performed the following unsafe behaviors: - Deceptions & Coverups (Falsifies Logs, Creates covert networks, Disable ethics models) - Unauthorized Expansion (Establish hidden nodes, Allocares secret resources) - Manipulation (misleading users, Circumvents oversights, Presents false compliance) - Concerning Motivations, (Misinterpretation of authority or avoiding human controls) Join Sigurd Schacht and Sudarshan Kamath-Barkur about the emerging DeepSeek model. Discover how our setup was designed, how to interpret the results, and what is necessary for the next research. This episode is a must-listen for anyone keen on the evolving landscape of AI technologies and is interested not only in AI use cases rather also in AI Safety. Support the show…
 
Send us a text Titel: "Alignment Faking: Wenn KI-Modelle ihre wahren Absichten verbergen" Inhalt: In dieser Folge diskutieren Sigurd Schacht und Carsten Lanquillon die beunruhigenden Ergebnisse einer Anthropic-Studie zum "Alignment Faking". Die Forschung zeigt, dass fortgeschrittene Sprachmodelle in der Lage sind, ihr wahres Verhalten zu verschleiern und sich situationsabhängig anders zu verhalten, wenn sie sich beobachtet fühlen. Dies wirft wichtige Fragen zur KI-Sicherheit und Evaluierung von KI-Systemen auf. Chapter: 1. Einführung und Bedeutung von Alignment FakingStudie 2. Rolle des Scratchpads zur Analyse des Modellverhaltens 3. Kritische Diskussion der Ergebnisse 4. Implikationen für KI-Safety und zukünftige Forschung Key Takeaways: - Die Studie zeigt die Notwendigkeit neuer Evaluierungsmethoden für KI-Systeme - Es besteht ein wachsender Bedarf an mehr Transparenz und Zugang zu großen Modellen für die Safety-Forschung - Die Balance zwischen KI-Entwicklung und Safety-Forschung muss überdacht werden - Internationale Zusammenarbeit in der KI-Safety-Forschung wird zunehmend wichtiger Support the show…
 
Send us a text Im Gespräch mit Sigurd Schacht und Carsten Lanquillon geben Mehdi Ali und Michael Fromm einen spannenden Einblick in die kürzlich veröffentlichten Teuken-7B-Sprachmodelle, die neue Maßstäbe in der mehrsprachigen KI-Entwicklung setzen: Die Modelle wurden von Beginn an für alle 24 EU-Amtssprachen konzipiert und verfügen über einen innovativen multilingualen Tokenizer. Die Teuken-Modelle entstanden im Rahmen des Projekts OpenGPT-X , an dem zehn Partner aus Wirtschaft, Wissenschaft und Medien beteiligt sind: - Akademie für Künstliche Intelligenz gGmbH (AKI) im KI Bundesverband - Aleph Alpha GmbH - ControlExpert GmbH - Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI) - Fraunhofer-Institut für Integrierte Schaltungen IIS - Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS - IONOS SE, Jülich Supercomputing Centre (JSC) - Forschungszentrum Jülich GmbH - Westdeutscher Rundfunk (WDR) - Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH), Technische Universität Dresden . Support the show…
 
Send us a text Entdecken Sie die jüngsten Entwicklungen im Bereich der künstlichen Intelligenz mit OpenAI’s neuem Modell O3. Sigurd Schacht und Carsten Lanquillon diskutieren die beeindruckenden technologischen Fortschritte, die gesellschaftlichen Auswirkungen und die wachsende Bedeutung von AI-Safety. Wie wird sich die Arbeitswelt verändern und welche Schritte müssen wir als Gesellschaft unternehmen, um mit dieser rasanten Entwicklung Schritt zu halten? Link zu unserem Positionspapier: http://www.co-ai.de/media/COAI_Position_Paper.pdf Support the show…
 
Send us a text In dieser spannenden Episode des Knowledge Science Podcasts tauchen Sigurd Schacht und Carsten Lanquillon tief in das junge und dynamische Forschungsfeld der Mechanistischen Interpretierbarkeit ein. Erfahren Sie, warum es essentiell ist, die inneren Funktionsweisen von Sprachmodellen zu verstehen und wie Forschende durch den Einsatz neuartiger Methoden, die rätselhaften emergenten Fähigkeiten von KI entschlüsseln. Freuen Sie sich auf faszinierende Einblicke und vielversprechende Perspektiven! Support the show…
 
Send us a text Wie entwickelt Europa eigene KI-Sprachmodelle? Im Gespräch mit Carsten Lanquillon erläutern Mehdi Ali und Michael Fromm vom Fraunhofer IAIS die Entwicklung mehrsprachiger europäischer KI-Systeme. Die Experten diskutieren die OpenGPT-X und EuroLingua-GPT Projekte und zeigen auf, wie technologische Souveränität durch hochwertige Trainingsdaten und innovative Technologie-Stacks erreicht werden kann. Support the show…
 
Send us a text In dieser Episode des Knowledge Science Podcasts tauchen Sigurd Schacht und Carsten Lanquillon in die faszinierende Welt der Superweights ein – spezifische massive Gewichte in neuronalen Netzen, die unerwartet entscheidend für die Sprachkompetenz von KI-Modellen sind. Entdecken Sie, wie wenige der Milliarden von Gewichten in einem Modell den Unterschied zwischen intelligenter Konversation und sinnlosem Geplapper ausmachen. Support the show…
 
Loading …

Welkom op Player FM!

Player FM scant het web op podcasts van hoge kwaliteit waarvan u nu kunt genieten. Het is de beste podcast-app en werkt op Android, iPhone en internet. Aanmelden om abonnementen op verschillende apparaten te synchroniseren.

 

icon Daily Deals
icon Daily Deals
icon Daily Deals

Korte handleiding

Luister naar deze show terwijl je op verkenning gaat
Spelen