<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Recherche-Tipp | Academic Society for Artificial Intelligence</title>
	<atom:link href="https://ai-society.org/category/recherche-tipp/feed/" rel="self" type="application/rss+xml" />
	<link>https://ai-society.org</link>
	<description>Neues aus der Forschung zum Thema Künstliche Intelligenz</description>
	<lastBuildDate>Wed, 15 Apr 2026 10:37:52 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://ai-society.org/wp-content/uploads/2021/10/cropped-ASAI-favicon-32x32.png</url>
	<title>Recherche-Tipp | Academic Society for Artificial Intelligence</title>
	<link>https://ai-society.org</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Deepfakes im politischen Diskurs</title>
		<link>https://ai-society.org/deepfakes-im-politischen-diskurs/</link>
		
		<dc:creator><![CDATA[Redaktion Recherchetipp]]></dc:creator>
		<pubDate>Wed, 15 Apr 2026 10:37:49 +0000</pubDate>
				<category><![CDATA[Recherche-Tipp]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=20759</guid>

					<description><![CDATA[<p>Fehlende Regeln fördern das Risiko von Fehlinformation Mittels Künstlicher Intelligenz (KI) generierte Deepfakes, also manipulierte, aber täuschend echt wirkende Videos und Fotos, kommen in politischen Auseinandersetzungen und somit auch im Wahlkampf immer häufiger zum Einsatz. Meist zielen sie darauf ab, den politischen Gegner zu verunglimpfen oder persönlich anzugreifen. Dies wird derzeit im US-amerikanischen Zwischenwahlkampf besonders&#8230;&#160;<a href="https://ai-society.org/deepfakes-im-politischen-diskurs/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">Deepfakes im politischen Diskurs</span></a></p>
<p>The post <a href="https://ai-society.org/deepfakes-im-politischen-diskurs/">Deepfakes im politischen Diskurs</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<h3 class="wp-block-heading"><strong>Fehlende Regeln fördern das Risiko von Fehlinformation</strong></h3>



<p>Mittels Künstlicher Intelligenz (KI) generierte Deepfakes, also manipulierte, aber täuschend echt wirkende Videos und Fotos, kommen in politischen Auseinandersetzungen und somit auch im Wahlkampf immer häufiger zum Einsatz. Meist zielen sie darauf ab, den politischen Gegner zu verunglimpfen oder persönlich anzugreifen. Dies wird derzeit im US-amerikanischen Zwischenwahlkampf besonders deutlich. Doch nicht nur dort kritisieren Politikbeobachter und Medienexperten fehlende Regeln für die Verwendung von KI in politischen Botschaften. Auch hierzulande warnte jüngst der Verfassungsschutz in Baden-Württemberg vor der dortigen Landtagswahl vor Desinformation durch Deepfakes und damit verbundenen Gefahren für die Demokratie.</p>



<p>Beispielhaft für den US-Zwischenwahlkampf berichtet die Nachrichtenagentur Reuters von einem Video, das den demokratischen texanischen Abgeordneten James Talarico strahlend vor einer Flagge des US-Bundestaates zeigt. Der junge Politiker scheint in die Kamera zu sagen: „Radikalisierte weiße Männer sind die größte inländische terroristische Bedrohung in unserem Land.“ Derweil flüstert eine Stimme im Hintergrund „weiße Männer“ und Talarico fährt fort: „So wahr. So wahr.“</p>



<h3 class="wp-block-heading"><strong>KI-generierte Fälschungen</strong></h3>



<p>Doch Talarico habe dieses Video nie gedreht, stellt Reuters klar. Vielmehr handelt es sich demnach bei dem Video-Clip um eine KI-generierte Anzeige des National Republican Senatorial Committee (NRSC), einer Wahlkampforganisation der Republikaner für den Senat. Darin zitierte ein computerveränderter Talarico Social-Media-Posts, die er Jahre zuvor verfasst hat. Der Hinweis „KI-generiert“ erscheine in einer leicht zu übersehenden Schriftart in der unteren rechten Ecke, beschreibt die Nachrichtenagentur.</p>



<p>Laut Reuters stellt dieses Video nur die Spitze einer Vielzahl von Deepfake-Anzeigen dar, die bereits im Rahmen von Partei-Kampagnen eingesetzt werden, um Wähler im Vorfeld der „Midterm Elections” frühzeitig zu beeinflussen. Diese Zwischenwahlen, die zur Halbzeit einer Präsidentschaft stattfinden, gelten als Abstimmung über die bisherige Amtsführung. In diesem Jahr stehen die Republikaner und Präsident Trump nach Einschätzung von Beobachtern massiv unter Druck.</p>



<h3 class="wp-block-heading"><strong><strong>Nicht nur ein US-Phänomen</strong></strong></h3>



<p>Wer meint, bei diesen Deepfake-Operationen handele es sich um ein speziell US-amerikanisches Phänomen, irrt. So warnte der Verfassungsschutz kurz vor der Landtagswahl in Baden-Württemberg Anfang März vor der Verbreitung von Desinformation durch „in- und ausländische Akteure“. Diese versuchten gerade mittels KI-generierter Inhalte und sogenannter Deepfakes, die freie Meinungsbildung zu beeinflussen.</p>



<p>Täuschend echte Audio-Aufnahmen von Kandidierenden, Anrufe durch KI-generierte Stimmen von Politikern, bis ins kleinste Detail gefälschte Nachrichtenseiten – all dies sei heute mit Künstlicher Intelligenz bereits möglich, erläuterte das Landesamt. Seine Befürchtung: Wenn Wählerinnen und Wähler nicht mehr unterscheiden können, ob ein Video echt ist oder ein Kommentar von einer KI generiert wurde, „bricht die Vertrauensbasis weg, die für den demokratischen Meinungs- und Willensbildungsprozess von entscheidender Bedeutung ist.&#8220;</p>



<h3 class="wp-block-heading">Verfassungsschutz warnt</h3>



<p>Als eine „große Gefahr“ hebt der Verfassungsschutz insbesondere KI-generierte Bilder hervor. Denn sie wirkten täuschend echt und könnten Politikerinnen und Politiker in Situationen zeigen, die nie stattgefunden haben mit Aussagen, die nie getätigt wurden, begründen die Verfassungsschützer ihre Warnung. Solche Bilder untergraben demnach Vertrauen, schüren Zweifel und beeinflussen Wahlentscheidungen, noch bevor ihre Echtheit hinterfragt wird. Um die Gesellschaft und den demokratischen Prozess zu schützen, sei es wichtig, die Bürgerinnen und Bürger aktuell und sachlich über Desinformation oder KI-Fälschungen zu informieren, fordert die für den Schutz der freiheitlichen demokratischen Grundordnung in Deutschland zuständige Behörde.</p>



<p>Ein Problem in dem Zusammenhang, das sowohl für Deutschland, die meisten europäischen Länder als auch die USA zutrifft, sind fehlende staatliche Regeln für den Einsatz von KI zur Vermittlung politischer Botschaften und somit auch für Wahlkämpfe. Dabei ist Künstliche Intelligenz inzwischen aus politischen Schlagabtauschen kaum noch wegzudenken. Und die Beispiele missbräuchlicher Verwendung mehren sich, sowohl hierzulande als auch aktuelll in den USA, wie Medienberichte immer wieder deutlich machen.</p>



<h3 class="wp-block-heading">„Wild-West-Stimmung“</h3>



<p>Beim Einsatz von KI herrsche „eine Art Wild-West-Stimmung“ – und das bei fast allen Parteien, fasst Der Spiegel eine Auswertung des Politikberaters Martin Fuchs und des Vereins AI4Democray zusammen. Fuchs befragte die Landesparteien in den fünf Bundesländern, in denen in diesem Jahr gewählt wurde oder noch gewählt wird, zu ihrer KI-Nutzung. Ergebnis: Offen reden über den internen KI-Einsatz mag kaum jemand, Fairness-Zusagen gibt keine Partei ab – oft mit dem Hinweis, dass ja die anderen Parteien sich nicht an Vereinbarungen halten würden, so Der Spiegel.</p>



<p>Es existiere aktuell weder ein Bewusstsein noch ein ethischer Rahmen für den Einsatz von KI, zitiert das Magazin Politikberater Fuchs. Auch er warnt, dass der unreflektierte Einsatz von KI zu weiterem Vertrauensverlust in einer Bevölkerung führe, „die jetzt schon nicht weiß, was sie glauben soll und was nicht“. Am Ende sei es nicht das manipulierte Video, das zur Gefahr werde, sondern das dadurch erzeugte Grundmisstrauen, befürchtet Fuchs.</p>



<h3 class="wp-block-heading"><strong>Klare Kennzeichnungspflichten und mehr Medienkompetenz gefordert</strong></h3>



<p>Dem gegenüber stehen Parteien, für die es im jeweiligen Wahlkampf um viel geht, für die viel auf dem Spiel steht. Gleiches gilt für politische Interessengruppen. Ihnen kann gezielte Desinformation mittels KI-generierter Deepfakes in die Karten spielen. Und wo keine Regeln, da kein Richter&#8230;</p>



<p>Vor dem Hintergrund mehren sich die Warnungen vor den Folgen dieser Form der unreglementierten politischen Auseinandersetzung. In dem aktuellen Bericht der Nachrichtenagentur Reuters etwa mahnt Daniel Schiff, Professor an der Purdue University, der Tausende von Deepfakes untersuchte, dass der zunehmende Einsatz politischer Inhalte, die Fehlinformationen verbreiten, das Risiko berge, das Vertrauen der US-Wähler in Institutionen weiter zu untergraben.</p>



<p>Angesichts der Chancen, die KI für die Vermittlung politischer Botschaften eröffnet, aber auch der damit verbundenen Risiken von Desinformation, halten Kommunikationswissenschaftler wie Dr. Simon Kruschinski vom Institut für Publizistik der Johannes Gutenberg-Universität Mainz (JGU) „klare Kennzeichnungspflichten, ethische Standards und mehr Medienkompetenz unter der Bevölkerung“ für dringend erforderlich, „um einen transparenten und verantwortungsvollen KI-Einsatz sicherzustellen&#8220;. Er stellte gemeinsam mit einem Forscherteam in einer Studie über Akzeptanz, Wahrnehmung und Wirkung von KI-generierten Inhalten der Politik zudem fest, dass die Bundesbürger den Einsatz von KI in politischen Kampagnen überwiegend ablehnen. </p>



<p>Die deutsche Bevölkerung sehe mehr Risiken als Chancen durch den Einsatz von KI-generierten politischen Inhalten und wünsche sich verbindliche Regeln zur Überprüfung und Transparenz, fasst Kruschinski die Studienergebnisse zusammen. Am Ende lägen die Herausforderungen allerdings nicht in der neuen Technologie selbst begründet, sondern in der Art, wie politische Kampagnen sie einsetzen, betont der Wissenschaftler.</p>



<p><em>Weiterführende Informationen: </em></p>



<ul class="wp-block-list">
<li><a href="https://ai-society.us5.list-manage.com/track/click?u=c0947753d447e273b7303432d&amp;id=fd709c7cff&amp;e=ef5ba1697a">https://www.tagesschau.de/inland/innenpolitik/bots-fakes-wahlkampf-100.html</a></li>



<li><a href="https://ai-society.us5.list-manage.com/track/click?u=c0947753d447e273b7303432d&amp;id=f65d3f89e1&amp;e=ef5ba1697a">https://www.verfassungsschutz-bw.de/,Lde/Startseite/Meldungen+und+Archiv/KI-generierte+Inhalte+und+Deepfakes+im+Wahlkampf</a></li>



<li><a href="https://ai-society.us5.list-manage.com/track/click?u=c0947753d447e273b7303432d&amp;id=787b3dbd2c&amp;e=ef5ba1697a">https://www.golem.de/news/politik-parteien-nutzen-vermehrt-ki-generierte-videos-2604-207261.html</a></li>



<li><a href="https://ai-society.us5.list-manage.com/track/click?u=c0947753d447e273b7303432d&amp;id=4d206af4f5&amp;e=ef5ba1697a">https://www.ardmediathek.de/video/phoenix-plus/ki-wahl-kampf-demokratie-in-gefahr/phoenix/Y3JpZDovL3Bob2VuaXguZGUvNDc4NDU5Nw</a></li>
</ul>



<p><em><em>llustration: shutterstock.com / elenabsl</em></em></p>



<p></p><p>The post <a href="https://ai-society.org/deepfakes-im-politischen-diskurs/">Deepfakes im politischen Diskurs</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Rote Linien: Warum ein KI-Konzern den US-Präsidenten herausfordert</title>
		<link>https://ai-society.org/rote-linien-warum-ein-ki-konzern-den-us-praesidenten-herausfordert/</link>
		
		<dc:creator><![CDATA[Redaktion Recherchetipp]]></dc:creator>
		<pubDate>Mon, 16 Mar 2026 10:47:25 +0000</pubDate>
				<category><![CDATA[Recherche-Tipp]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=20753</guid>

					<description><![CDATA[<p>Anthropic im Konflikt mit der Trump-Regierung „Trump sanktioniert KI-Entwickler, der Menschen vor KI schützen will“. So überschreibt das deutsche Wirtschaftsmagazin „Capital“ jetzt einen Bericht über den aktuellen Streit zwischen dem US-amerikanischen KI-Unternehmen Anthropic und der Trump-Regierung. Dabei weigert sich Anthropic, die eigenen ethischen Richtlinien für das Pentagon zu lockern. Daraufhin schloss US-„Kriegsminister“ Pete Hegseth Anthropic&#8230;&#160;<a href="https://ai-society.org/rote-linien-warum-ein-ki-konzern-den-us-praesidenten-herausfordert/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">Rote Linien: Warum ein KI-Konzern den US-Präsidenten herausfordert</span></a></p>
<p>The post <a href="https://ai-society.org/rote-linien-warum-ein-ki-konzern-den-us-praesidenten-herausfordert/">Rote Linien: Warum ein KI-Konzern den US-Präsidenten herausfordert</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<h3 class="wp-block-heading">Anthropic im Konflikt mit der Trump-Regierung</h3>



<p>„Trump sanktioniert KI-Entwickler, der Menschen vor KI schützen will“. So überschreibt das deutsche Wirtschaftsmagazin „Capital“ jetzt einen Bericht über den aktuellen Streit zwischen dem US-amerikanischen KI-Unternehmen Anthropic und der Trump-Regierung. Dabei weigert sich Anthropic, die eigenen ethischen Richtlinien für das Pentagon zu lockern. Daraufhin schloss US-„Kriegsminister“ Pete Hegseth Anthropic von allen Regierungsaufträgen aus.</p>



<p>Hegseth erklärte KI-Hersteller Anthropic sogar kurzerhand zu einem „Lieferkettenrisiko“ für die nationale Sicherheit und hielt Anthropic-Chef Dario Amodei „Arroganz“ und „Heimtücke“ vor, die das Leben von US-Soldaten gefährde. Unterstützung bekam der Minister postwendend von US-Präsident Donald Trump, der laut einem Report des „Handelsblatt“ über das Sprachmodell Claude von Anthropic wetterte: „Wir benötigen es nicht, wir wünschen es nicht und werden keine weiteren Geschäfte mit ihnen tätigen“. Nun soll Anthropic-Technologie binnen sechs Monaten aus allen Ministerien und Bundesbehörden der USA verschwinden, so die Entscheidung von Trump und Hegseth. Stattdessen wurde Konkurrent OpenAI ausersehen, den Platz des Mitbewerbers einzunehmen, den Trump einer Meldung der „Tagesschau“ zufolge als „radikal linkes, wokes Unternehmen“ beschimpfte.</p>



<h3 class="wp-block-heading">Rote Linien</h3>



<p>Im Kern der Auseinandersetzung zwischen der Trump-Regierung und dem US-KI-Entwickler geht es um Grundsatzfragen zu Sicherheit und Einsatzgrenzen von KI. Das US-Verteidigungsministerium will Anthropic zwingen, seine KI-Modelle uneingeschränkt für alle rechtmäßigen militärischen Anwendungen zu öffnen. Dagegen begründete Anthropic-CEO Dario Amodei die Weigerung seines Unternehmens mit zwei roten Linien, die nicht überschritten werden dürften, wie die Frankfurter Rundschau (FR) erläutert. Die erste lautet demnach: KI soll keine autonomen Waffen steuern, bei denen Maschinen selbstständig töten. Und die zweite: KI soll nicht zur Massenüberwachung von US-Bürgern eingesetzt werden.</p>



<h3 class="wp-block-heading"><strong>KI beim Iran-Angriff eingesetzt</strong></h3>



<p>Besondere Brisanz hat das Zerwürfnis vor dem aktuellen Hintergrund, dass Berichten der US-Medien „Wall Street Journal“ und „Axios“ zufolge das Pentagon zur Vorbereitung und Durchführung des Bombardements im Iran auch die Technik des KI-Konzerns Anthropic genutzt haben soll. Nach übereinstimmenden US-Medienberichten soll der Streit zwischen der US-Regierung und Anthropic weniger als 24 Stunden vor dem Angriff auf den Iran eskaliert sein, wie es in der FR heißt. Danach wertete das Anthropic-KI-Modell Claude bei der Vorbereitung des US-Militärschlags gegen den Iran Geheimdienstinformationen aus, unterstützte bei der Zielerfassung und soll außerdem für Schlachtfeldsimulationen genutzt worden sein. Schon Anfang Januar, bei der Entführung des venezolanischen Präsidenten Nicolás Maduro, habe das Pentagon Claude militärisch genutzt, zitiert die FR weitere übereinstimmende Medienberichte.</p>



<p>Die beiden roten Linien, die Anthropic-Chef Amodei bei der Nutzung von KI gezogen wissen möchte, betreffen die Befürchtung, Künstliche Intelligenz könne sich verselbstständigen. Hierzu verweist die FR auf einen im Januar dieses Jahres veröffentlichten Essay mit dem Titel „The Adolescence of Technology“, zu deutsch „Die Pubertät der Technologie“, in dem der KI-Firmenchef Künstliche Intelligenz einerseits als eine Sache lobt, die die Menschheit voranbringt. Allerdings weise er darin auch auf Gefahren hin, die man sehen sollte, wenn man leistungsstarke Technologie nutze und entwickele, schreibt die Zeitung. Und diese Risiken begründen unter anderem seine roten Linien.</p>



<h3 class="wp-block-heading">Amodei warnt vor KI-Risiken</h3>



<p>Bezogen auf die erste rote Linie – die autonomen Waffen – warnt Amodei davor, dass KI sich verselbstständigen könne. Es bestehe das Risiko, dass die Technologie eigene Ziele finde, die nicht zwangsläufig mit denen der Menschen übereinstimmen müssten, zitiert die FR aus dem Essay. Dabei verweist der Anthropic-Chef explizit auf das Zerstörungspotenzial von KI, falls sie zur Entwicklung von Biowaffen eingesetzt würde.</p>



<p>Hinsichtlich seiner zweiten roten Linie, Massenüberwachung betreffend, befürchtet Amodei demnach, dass KI von Autokraten für die bewusste Streuung von Fehlinformationen genutzt werden könnten, um Macht zu erlangen und zu behaupten.</p>



<p>Auf diese potentiellen Gefahren von KI hätten Anthropic und Firmenchef Amodei immer wieder hingewiesen, stellt die FR fest. Das Unternehmen war 2021 von sieben ehemaligen OpenAI-Mitarbeitenden gegründet worden. Sie verließen die Firma von Sam Altman mit der Begründung, das Vertrauen darin verloren zu haben, dass OpenAI die neuartige Technologie in einer Weise entwickle, die der Gesellschaft förderlich ist.</p>



<p>Nun soll OpenAI als Nachfolger die millionenschweren Aufträge der US-Regierung von Anthropic übernehmen – weil Amodei sich weigert, die ethischen Leitlinien seines Unternehmens für das US-„Kriegsministerium“ zu lockern. In dieser Hinsicht übte sich OpenAI daraufhin zwar öffentlich in Solidarität mit dem Konkurrenten. Anthropic solle nicht als „Lieferkettenrisiko“ eingestuft werden, wie es Minister Hegseth angekündigt hatte, diese Position hierzu habe man gegenüber der Regierung deutlich gemacht, zitiert die „Zeit“ aus einer entsprechenden Pressemitteilung von OpenAI. Doch bekannt ist eben auch, dass OpenAI-Chef Sam Altman und Anthropic-CEO Dario Amodei im Hinblick auf das Konfliktthema, wie weit die Verantwortung von KI-Entwicklern für die Eigenständigkeit von Anwendungen Künstlicher Intelligenz geht, sehr unterschiedlicher Ansicht sind. Der Zwist der beiden soll sogar soweit gehen, dass sie sich bei öffentlichen Auftritten den Handschlag verweigerten. Altman werde schon länger eine Nähe zu Trump nachgesagt, merkt die „Zeit“ dazu an.</p>



<h3 class="wp-block-heading">Mitarbeiter fordern rote Sicherheitslinien</h3>



<p>Unterdessen veröffentlichten Mitarbeiter von Google, Anthropic und OpenAI einen gemeinsamen offenen Brief, in dem sie rote Linien für KI-Nutzung postulieren. Konkret gleichen ihre Forderungen den roten Linien von Anthropic: keine Überwachung amerikanischer Bürger und keine autonomen Waffen ohne menschliche Beteiligung. Laut einem Bericht des „Wall Street Journal“ soll OpenAI-Chef Sam Altman seinen Mitarbeitern versichert haben, das Unternehmen arbeite an einem Vertrag mit dem Pentagon, der die gleichen Sicherheitsrichtlinien beinhalte wie die von Anthropic geforderten.</p>



<p><em>Weiterführende Informationen: </em></p>



<ul class="wp-block-list">
<li><a href="https://www.capital.de/wirtschaft-politik/anthropic--trump-sanktioniert-den--der-menschen-vor-ki-schuetzen-will-37186850.html">https://www.capital.de/wirtschaft-politik/anthropic&#8211;trump-sanktioniert-den&#8211;der-menschen-vor-ki-schuetzen-will-37186850.html</a></li>



<li><a href="https://www.fr.de/wirtschaft/trump-bestraft-ki-konzern-anthropic-mit-hartem-bann-94196139.html">https://www.fr.de/wirtschaft/trump-bestraft-ki-konzern-anthropic-mit-hartem-bann-94196139.html</a></li>



<li><a href="https://www.faz.net/aktuell/wirtschaft/unternehmen/open-ai-gibt-fehler-im-umgang-mit-dem-pentagon-zu-und-verliert-kunden-110847102.html" target="_blank" rel="noreferrer noopener">https://www.faz.net/aktuell/wirtschaft/unternehmen/open-ai-gibt-fehler-im-umgang-mit-dem-pentagon-zu-und-verliert-kunden-110847102.html</a></li>



<li><a href="https://the-decoder.de/widerstand-gegen-pentagon-anthropic-google-und-openai-mitarbeiter-fordern-rote-linien-fuer-ki-nutzung/">https://the-decoder.de/widerstand-gegen-pentagon-anthropic-google-und-openai-mitarbeiter-fordern-rote-linien-fuer-ki-nutzung/</a></li>
</ul>



<p><em><em>llustration: shutterstock.com / Gorodenkoff</em></em></p>



<p></p><p>The post <a href="https://ai-society.org/rote-linien-warum-ein-ki-konzern-den-us-praesidenten-herausfordert/">Rote Linien: Warum ein KI-Konzern den US-Präsidenten herausfordert</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deutsche Hochschulen zwischen Experimentierfreude und Strategiedefizit bei KI</title>
		<link>https://ai-society.org/deutsche-hochschulen-zwischen-experimentierfreude-und-strategiedefizit-bei-ki/</link>
		
		<dc:creator><![CDATA[Redaktion Recherchetipp]]></dc:creator>
		<pubDate>Wed, 25 Feb 2026 08:07:00 +0000</pubDate>
				<category><![CDATA[Recherche-Tipp]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=20742</guid>

					<description><![CDATA[<p>Generative Künstliche Intelligenz (KI) hat Einzug in die deutschen Hochschulen gehalten und prägt inzwischen den Lehr- und Lernalltag. Dies hat eine Vielzahl an Prozessen ausgelöst, um Regelungen für den Einsatz von KI in Studium und Lehre zu entwickeln. Mit dem Ziel, den Stand dieser Maßnahmen zu untersuchen, befragte das Hochschulforum Digitalisierung (HFD) von Mai bis&#8230;&#160;<a href="https://ai-society.org/deutsche-hochschulen-zwischen-experimentierfreude-und-strategiedefizit-bei-ki/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">Deutsche Hochschulen zwischen Experimentierfreude und Strategiedefizit bei KI</span></a></p>
<p>The post <a href="https://ai-society.org/deutsche-hochschulen-zwischen-experimentierfreude-und-strategiedefizit-bei-ki/">Deutsche Hochschulen zwischen Experimentierfreude und Strategiedefizit bei KI</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>Generative Künstliche Intelligenz (KI) hat Einzug in die deutschen Hochschulen gehalten und prägt inzwischen den Lehr- und Lernalltag. Dies hat eine Vielzahl an Prozessen ausgelöst, um Regelungen für den Einsatz von KI in Studium und Lehre zu entwickeln. Mit dem Ziel, den Stand dieser Maßnahmen zu untersuchen, befragte das Hochschulforum Digitalisierung (HFD) von Mai bis Juni 2025 öffentliche Universitäten und Hochschulen für angewandte Wissenschaften (HAW).</p>



<p>Die Ergebnisse zeigen, dass öffentliche Hochschulen gute Grundlagen für den Einsatz von KI geschaffen haben. Das HFD wertet dies als Zeichen, dass KI zur neuen Hochschulrealität gehört. So sieht es auch Professor Marco Barenkamp, KI-Experte und Gründer der auf KI-Entwicklungen spezialisierten LMIS AG:</p>



<p>„Für Hochschulen kann die Frage nicht lauten ‚KI – ja oder nein‘, sondern wie sie diese Entwicklung so gestalten, dass wissenschaftliche Qualität, Souveränität und Innovationskraft gleichermaßen profitieren.“</p>



<h3 class="wp-block-heading">Vision gesucht: Defizite in der langfristigen Orientierung</h3>



<p>Trotz der operativen Fortschritte offenbart der KI-Monitor 2025 Defizite in der strategischen Ausrichtung. Es fehle weiterhin an einer klaren Vision, wie Hochschulbildung im Zeitalter von KI gestaltet sein soll. Laut der Studie beschäftigen sich zwar 97 Prozent der Hochschulen mit KI in Prüfungen und 87 Prozent haben ihre Eigenständigkeitserklärungen aktualisiert – aber nur 43 Prozent haben die Prüfungsordnung generell angepasst.</p>



<figure class="wp-block-image size-full"><img fetchpriority="high" decoding="async" width="870" height="600" src="https://ai-society.org/wp-content/uploads/2026/02/grafik-hochschule-ki.png" alt="" class="wp-image-20743" srcset="https://ai-society.org/wp-content/uploads/2026/02/grafik-hochschule-ki.png 870w, https://ai-society.org/wp-content/uploads/2026/02/grafik-hochschule-ki-300x207.png 300w, https://ai-society.org/wp-content/uploads/2026/02/grafik-hochschule-ki-768x530.png 768w" sizes="(max-width: 870px) 100vw, 870px" /></figure>



<p>Mit 90 Prozent stellen die Auswirkungen von KI auf die akademische Integrität das vorrangig diskutierte Thema dar. Die Autoren der Studie betonen, dass vor allem in der Prüfungspraxis und beim wissenschaftlichen Arbeiten die stärksten Veränderungen erwartet werden. Hier werden die größten Handlungsbedarfe wahrgenommen, da gegenwärtige Praktiken durch KI zunehmend an ihre Grenzen stoßen.</p>



<h3 class="wp-block-heading">Prüfungen im Wandel</h3>



<p>Den größten Handlungsdruck sehen die Hochschulen selbst im Prüfungswesen. Hinsichtlich dieser Auswirkungen stellt Barenkamp, Honorarprofessor für Wirtschaftsinformatik an der Hochschule Osnabrück, fest, dass sich Prüfungen von einer reinen Ergebnisorientierung hin zu Prozess- und Verständnisorientierung entwickeln müssten.</p>



<p>„Wenn Texte in guter Qualität generiert werden können, halte ich die Frage ‚Wer hat das formuliert?‘ für weniger relevant als das Kriterium ‚Versteht die Kandidatin oder der Kandidat den Inhalt, kann sie oder er ihn erklären und auf neue Fälle anwenden?‘.</p>



<p>Deshalb meint er, dass mündliche Prüfungen, Präsentationen und dialogische Formate in der Hochschulpraxis an Bedeutung gewinnen dürften. Ergänzend könnten klare Transparenzregeln einen verlässlichen Rahmen dafür bieten, wie KI in Prüfungsleistungen eingesetzt werden darf und wie Studierende diesen Einsatz kenntlich zu machen haben. In diesem Kontext könne auch die kompetente Nutzung von KI bei der Erarbeitung eines Ergebnisses selbst Gegenstand der Bewertung sein, etwa im Hinblick auf die zielgerichtete Auswahl, kritische Steuerung und reflektierte Einordnung der KI-generierten Beiträge.“</p>



<p>Angesichts der noch unzureichend angepassten Prüfungsordnungen monieren die Experten des HFD, dass die rechtliche Basis für innovative Formate oft ungenutzt bleibe. Viele Hochschulen befinden sich in einem Spannungsfeld zwischen kurzfristigen Anpassungen und einer grundlegenden Weiterentwicklung ihrer Modelle, was das HFD als „gefährliche Grauzone“ bezeichnet.</p>



<h3 class="wp-block-heading"><strong>Die Gefahr einer digitalen Spaltung der Hochschullandschaft</strong></h3>



<p>Ein zentraler Punkt des Monitors ist die Sorge vor einer Zwei-Klassen-Gesellschaft. Während große Universitäten Lizenzen für Modelle wie Gemini 3 finanzieren können, drohen kleinere Hochschulen den Anschluss zu verlieren. Fast dreimal so viele Vertreter großer Hochschulen gaben an, dass die Budgetentwicklung für langfristige KI-Nutzung auf der Agenda stehe, im Vergleich zu kleineren Einrichtungen.</p>



<p>Interessant ist hierbei der Trendwechsel: Im „Monitor Digitalisierung 360°“ (2023/24) reagierten große Hochschulen noch eher träge auf KI. Dieser Effekt ist nun verflogen – in vielen Handlungsfeldern liegen die großen Institutionen laut der aktuellen Befragung inzwischen weit vorne.</p>



<p>Befragt nach einer expliziten KI-Strategie geben 15 Prozent der Hochschulen an, bereits über eine solche zu verfügen. Weitere 50 Prozent entwickeln derzeit eine Strategie, während 35 Prozent noch keine vorweisen können. Unterm Strich stellt das HFD fest, dass die Relevanz der strategischen Auseinandersetzung zwar verstanden wurde, die Umsetzung aber variiert. Signifikante Unterschiede zwischen HAWs und Universitäten lassen sich dabei bisher nicht feststellen.</p>



<p>Das HFD resümiert, dass eine strategische Auseinandersetzung unabdingbar für eine flächendeckende Integration ist. Die Ergebnisse zeigten, dass Hochschulen nicht mehr nach Gründen für oder gegen KI suchen, sondern nach tragfähigen Wegen für den Umgang mit den tiefgreifenden Veränderungen.</p>



<h3 class="wp-block-heading">KI-Kompetenz als integraler Bestandteil akademischer Bildung</h3>



<p>Abschließend betont Professor Barenkamp, dass KI aus dem Hochschulbereich nicht verbannt werden darf, wenn Studierende auf eine moderne Arbeitswelt vorbereitet werden sollen.</p>



<p>„KI-Kompetenz sollte nachdrücklich verbindlicher Bestandteil akademischer Bildung in allen Studiengängen sein, nicht nur in der Informatik. Das umfasst ein Verständnis der Funktionsweise und Grenzen, die Fähigkeit zur Interpretation und kritischen Prüfung von KI-Ergebnissen sowie den reflektierten Einsatz im jeweiligen Fach. Zugleich sollte gewährleistet sein, dass alle Studierenden, unabhängig von sozialem Hintergrund und Studiengang, einen möglichst barrierearmen Zugang zu hochwertigen KI-Lösungen erhalten. Das trägt nicht nur zu Chancengleichheit bei, sondern unterstützt auch digitale Souveränität im Sinne der hochschulübergreifenden Zielsetzung.“</p>



<ul class="nv-cv-m wp-block-list">
<li><a href="https://www.stifterverband.org/pressemitteilungen/2025_09_04_ki_monitor" target="_blank" rel="noreferrer noopener">https://www.stifterverband.org/pressemitteilungen/2025_09_04_ki_monitor</a></li>



<li><a href="https://hochschulforumdigitalisierung.de/wp-content/uploads/2025/09/Blickpunkt_KI-Monitor25.pdf">https://hochschulforumdigitalisierung.de/wp-content/uploads/2025/09/Blickpunkt_KI-Monitor25.pdf</a></li>
</ul>



<p><em><em>llustration: shutterstock.com / AnnaStills<br>Grafik: HFD / KI Monitor 2025</em></em></p>



<p></p><p>The post <a href="https://ai-society.org/deutsche-hochschulen-zwischen-experimentierfreude-und-strategiedefizit-bei-ki/">Deutsche Hochschulen zwischen Experimentierfreude und Strategiedefizit bei KI</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KI als Wachstums-Garant? Zwischen Ambition und Realität</title>
		<link>https://ai-society.org/ki-als-wachstums-garant-zwischen-ambition-und-realitaet/</link>
		
		<dc:creator><![CDATA[Redaktion Recherchetipp]]></dc:creator>
		<pubDate>Mon, 23 Feb 2026 09:46:26 +0000</pubDate>
				<category><![CDATA[Recherche-Tipp]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=20737</guid>

					<description><![CDATA[<p>Große Erwartungen – unklare Geschäftsmodelle Bis zum Jahr 2030 soll Künstliche Intelligenz (KI) einen signifikanten Beitrag zum Umsatz von Unternehmen leisten. Davon gehen 81 Prozent deutscher und 73 Prozent Schweizer Führungskräfte aus, die für eine Studie des IBM Institute for Business Value befragt wurden. Zum Vergleich: Heute sind es 43 Prozent in Deutschland und 30&#8230;&#160;<a href="https://ai-society.org/ki-als-wachstums-garant-zwischen-ambition-und-realitaet/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">KI als Wachstums-Garant? Zwischen Ambition und Realität</span></a></p>
<p>The post <a href="https://ai-society.org/ki-als-wachstums-garant-zwischen-ambition-und-realitaet/">KI als Wachstums-Garant? Zwischen Ambition und Realität</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<h3 class="wp-block-heading">Große Erwartungen – unklare Geschäftsmodelle</h3>



<p>Bis zum Jahr 2030 soll Künstliche Intelligenz (KI) einen signifikanten Beitrag zum Umsatz von Unternehmen leisten. Davon gehen 81 Prozent deutscher und 73 Prozent Schweizer Führungskräfte aus, die für eine Studie des IBM Institute for Business Value befragt wurden. Zum Vergleich: Heute sind es 43 Prozent in Deutschland und 30 Prozent in der Schweiz. Gleichzeitig macht die aktuelle Untersuchung aber auch eine kritische Lücke deutlich, wie der deutsche KI-Experte Professor Marco Barenkamp hinweist: Denn nur ein kleiner Teil, konkret rund ein Viertel der deutschen und lediglich ein Fünftel der Schweizer Befragten, hat eine klare Vorstellung davon, woher dieser Umsatz kommen wird.</p>



<p>Ungeachtet dieser Unsicherheit gehen Führungskräfte in der Schweiz und Deutschland davon aus, dass die Investitionen in KI zwischen heute und 2030 stark ansteigen: auf etwa das 2,5-Fache des Unternehmensumsatzes, laut der Untersuchung des IBM Institute for Business Value. Allerdings befürchten 68 Prozent der Schweizer und 59 Prozent der deutschen Führungskräfte, dass ihre KI-Bemühungen aufgrund mangelnder Integration in die Kerngeschäftsaktivitäten scheitern werden. Das Institute for Business Value ist ein unternehmensnaher Thinktank von IBM.</p>



<h3 class="wp-block-heading">IBM sieht KI als neuen Unternehmensstandard</h3>



<p>„KI wird Unternehmen nicht nur unterstützen, sie wird sie definieren“, kommentiert Mohamad Ali, Senior Vice President bei IBM Consulting, die Studie. „Bis 2030 werden die Unternehmen, die sich durchsetzen, KI in jede Entscheidung und jeden Arbeitsablauf einfließen lassen. Sie werden über leistungsstarke KI-Ressourcen verfügen, schneller agieren als ihre Wettbewerber, Innovationen zügig auf den Markt bringen und mithilfe von Technologie und Automatisierung echte, messbare Geschäftsergebnisse erzielen“, so Mohamad Ali.&nbsp;</p>



<p>Diese Prognose müsse man etwas relativieren, meint Prof. Barenkamp, Gründer und Aufsichtsrat der auf KI-Entwicklungen spezialisierten Osnabrücker LMIS AG. Denn KI werde nur dann wirklich zum Geschäftsmodell, wenn Unternehmen heute anfangen, ihre Wertschöpfung zu entpacken, in Systemen statt in Einzelprojekten zu denken und die entstehende Multi‑Model‑Komplexität bewusst zu gestalten, wendet der deutsche KI-Fachmann ein.</p>



<h3 class="wp-block-heading">Warum viele KI-Strategien in der Praxis scheitern</h3>



<p>Die IBM-Studie beschreibe, dass KI bis 2030 nicht nur das Geschäft unterstützen, sondern das Geschäftsmodell sogar sein werde, stellt Prof. Barenkamp fest. Diese Vision sei zwar spannend, jedoch weniger relevant als die häufige Diskrepanz zwischen Anspruch und Umsetzung, berichtet er aus seiner bisherigen Erfahrung in der Praxis.&nbsp;</p>



<p>Das Studienergebnis, nach dem vier Fünftel der Führungskräfte erwarten, dass KI bis 2030 signifikant zum Umsatz beiträgt, jedoch nur ein kleiner Teil der Top-Manager eine Vorstellung davon hat, woher dieser Umsatz konkret kommen soll, spiegle sein derzeitig alltägliches Erleben in Unternehmen wider, bedauert der KI-Berater.&nbsp;</p>



<p>„Viele Verantwortliche in den Firmen blicken auf KI‑Wertschöpfung, jedoch ohne ihre Wertschöpfungsketten wirklich präzise genug zu hinterfragen“, moniert Professor Barenkamp.</p>



<p>Und er wird deutlich: „Es geht hier im Wesentlichen darum, dass Unternehmen vor dem KI-Einsatz ihre Kernprozesse explizit analysieren sollten, um zu verstehen, welche Schritte tatsächlich Wert erzeugen. Oder wo Wartezeiten, manuelle Übergaben sowie Entscheidungsunsicherheiten entstehen.“ Hierfür gebe es eine einfache Faustregel, stellt Professor Barenkamp fest: „Wenn sich ein Prozess nicht klar beschreiben lässt, kann er auch nicht sinnvoll automatisiert oder durch KI unterstützt werden!“</p>



<p><em>Weiterführende Informationen:</em></p>



<ul class="nv-cv-m wp-block-list">
<li><a href="https://de.newsroom.ibm.com/2026-01-19-IBM-Studie-Kunstliche-Intelligenz-soll-bis-2030-intelligenteres-Geschaftswachstum-in-Deutschland-und-der-Schweiz-vorantreiben" target="_blank" rel="noopener" title="">https://de.newsroom.ibm.com/2026-01-19-IBM-Studie-Kunstliche-Intelligenz-soll-bis-2030-intelligenteres-Geschaftswachstum-in-Deutschland-und-der-Schweiz-vorantreiben</a></li>



<li><a href="https://www.bigdata-insider.de/ki-2030-wachstumsmotor-effizienzwerkzeug-a-29c195b922e01bcd262fa300c0b2c642/" target="_blank" rel="noopener" title="">https://www.bigdata-insider.de/ki-2030-wachstumsmotor-effizienzwerkzeug-a-29c195b922e01bcd262fa300c0b2c642/</a></li>
</ul>



<p></p>



<p><em>Illustration: shutterstock.com / Danielala</em></p><p>The post <a href="https://ai-society.org/ki-als-wachstums-garant-zwischen-ambition-und-realitaet/">KI als Wachstums-Garant? Zwischen Ambition und Realität</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Wie ein KI-Modell zukünftige Hitzebelastung in Städten greifbar macht</title>
		<link>https://ai-society.org/wie-ein-ki-modell-zukuenftige-hitzebelastung-in-staedten-greifbar-macht/</link>
		
		<dc:creator><![CDATA[Redaktion Recherchetipp]]></dc:creator>
		<pubDate>Mon, 22 Sep 2025 14:50:14 +0000</pubDate>
				<category><![CDATA[Recherche-Tipp]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=20732</guid>

					<description><![CDATA[<p>Klimawandel ist nicht mehr nur ein Zukunftsthema: Die Erde erwärmt sich langfristig durch einen verstärkten, vom Menschen verursachten Treibhauseffekt. Inzwischen sind die aktuellen Folgen des Klimawandels auch hierzulande nicht mehr zu übersehen: steigende Temperaturen, mehr Hitzetage und längere Dürreperioden, aber auch vermehrtes Hochwasser. Was früher als extrem galt, ist heute normal, fasst der Deutsche Wetterdienst (DWD) die Klimawandel-bedingten Wetterextreme&#8230;&#160;<a href="https://ai-society.org/wie-ein-ki-modell-zukuenftige-hitzebelastung-in-staedten-greifbar-macht/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">Wie ein KI-Modell zukünftige Hitzebelastung in Städten greifbar macht</span></a></p>
<p>The post <a href="https://ai-society.org/wie-ein-ki-modell-zukuenftige-hitzebelastung-in-staedten-greifbar-macht/">Wie ein KI-Modell zukünftige Hitzebelastung in Städten greifbar macht</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>Klimawandel ist nicht mehr nur ein Zukunftsthema: Die Erde erwärmt sich langfristig durch einen verstärkten, <strong>vom Menschen verursachten Treibhauseffekt.</strong> Inzwischen sind die aktuellen Folgen des Klimawandels auch hierzulande nicht mehr zu übersehen: steigende Temperaturen, mehr Hitzetage und längere Dürreperioden, aber auch vermehrtes Hochwasser. <strong>Was früher als extrem galt, ist heute normal,</strong> fasst der Deutsche Wetterdienst (DWD) die Klimawandel-bedingten Wetterextreme zusammen. Schon die bisherigen Folgen für Deutschland hält DWD-Vorstandsmitglied Tobias Fuchs für gravierend. Deutschland sei unter anderem mit mehr Hitzewellen konfrontiert als früher. Diese beeinträchtigten insbesondere „vulnerable Bevölkerungsgruppen in Großstädten und Ballungsräumen“. Nun zeigen Freiburger Forscher auf, wie sich <strong>mit Hilfe von Künstlicher Intelligenz (KI) vorsorgende Anpassungen an den Klimawandel </strong>sinnvoll und zielführend planen lassen.</p>



<p>Besonders die Menschen in den Städten leiden unter extremer Hitze. Wissenschaftler sprechen von&nbsp;<strong>„urbanen Wärmeinseln“</strong>&nbsp;aufgrund der dichten Bebauung: Weil Asphalt und Beton die Hitze tagsüber speichern, um sie nachts wieder abzugeben. So steigen die Temperaturen in den Cities stärker an als im Umland, was zu einem Gesundheitsrisiko&nbsp;<strong>insbesondere für Kinder, ältere Menschen und Menschen mit Vorerkrankungen</strong>&nbsp;führt. Deshalb fordern Experten immer nachdrücklicher, den Hitzebelastungen in den Städten&nbsp;<strong>konsequenter entgegenzuwirken.</strong></p>



<p>Ein neues, von der Universität Freiburg und dem Karlsruher Institut für Technologie (KIT) entwickeltes KI-Modell ermöglicht es nun erstmals, zu berechnen, wie sich die Hitzebelastung einer Stadt zukünftig pro Quadratmeter entwickeln wird. Das Modell könne Städte bei der&nbsp;<strong>Anpassung an den Klimawandel unterstützen</strong>&nbsp;und Impulse bieten für eine klimagerechte Stadtplanung, erklären die Wissenschaftler zu ihren Forschungsergebnissen. Am Beispiel der Stadt Freiburg simulierten sie drei verschiedene Klimaszenarien für den Zeitraum von 2070 bis 2099 und zeigen damit die<strong>&nbsp;Entwicklung von Hitzestunden</strong>&nbsp;in Bezug zur Stadtstruktur auf.</p>



<h3 class="wp-block-heading">Hitzeentwicklung „vor der Haustür“</h3>



<p>„Mit unserem KI-Modell können wir die Hitzeentwicklung in Freiburg buchstäblich vor jeder Haustür analysieren“, erläutert Prof. Dr. Andreas Christen, Umweltmeteorologe an der Universität Freiburg, das Besondere an der Freiburger KI-Entwicklung. Da jede Stadt mit ihrer Bebauung, Begrünung und Lage ganz eigene Strukturen aufweise, sei es entscheidend, die Hitzebelastung so&nbsp;<strong>detailliert wie möglich zu berechnen,</strong>&nbsp;verdeutlicht Prof. Christen. „Denn nur so lassen sich passgenaue Maßnahmen entwickeln, die Menschen besser vor extremer Hitze schützen.“ Nach einer Validierung und Anpassung an spezifische städtische Gegebenheiten, könne ihr Modell auf&nbsp;<strong>jede andere Stadt angepasst und angewandt werden,</strong>&nbsp;versichern die Freiburger Forscher.</p>



<p>„Künstliche Intelligenz kann uns heute schon dabei helfen,&nbsp;<strong>den Klimawandel greifbarer zu machen“</strong>, bestätigt auch der deutsche KI-Experte Prof. Dr. Marco Barenkamp. Ein Modell wie das Freiburger zeige, wie man die zukünftige Hitzebelastung in Städten jetzt sogar metergenau prognostizieren könne, hebt der Gründer und stellvertretende Aufsichtsratschef der auf KI-Entwicklungen spezialisierten Osnabrücker LMIS AG hervor. Für die Stadtplanung bedeute dies, dass es nicht mehr nur „mehr Bäume“ oder „weniger Beton“ geben müsse. Vielmehr werde die&nbsp;<strong>Wirkung einzelner Maßnahmen konkret an einem gewissen Ort bestimmbar&nbsp;</strong>gemacht. „Das eröffnet völlig neue Möglichkeiten“, konstatiert Prof. Barenkamp.</p>



<p>Das von dem interdisziplinären Forschungsteam der Universität Freiburg und des Karlsruher KIT entwickelte KI-Modell könne erstmals hochauflösend und über lange Zeiträume berechnen, wie sich die Hitzebelastung in einem Stadtgebiet künftig tatsächlich pro Quadratmeter entwickeln wird, berichtet die Hochschule im Breisgau. Freiburg diente den Forschenden dabei&nbsp;<strong>als Pilotstadt für ihr Modell</strong>. Das KI-System kombiniert dabei Geodaten wie Gebäudehöhen und Vegetationsstrukturen mit Wettervorhersage- oder Klimaprojektionsdaten wie Lufttemperatur oder Strahlung. So soll das Modell für die Prognose&nbsp;<strong>verschiedener Klimaszenarien</strong>&nbsp;eingesetzt werden können: von einem Klima, das sich bei starkem Klimaschutz weniger stark erwärmt, bis hin zu einem deutlich wärmeren Klima bei sehr hohen Treibhausgasemissionen.</p>



<h3 class="wp-block-heading">Klimabelastung steigt in Freiburg zukünftig an</h3>



<p>Mithilfe des KI-Modells simulierten die Forschenden das zukünftige Freiburger Stadtklima für den Zeitraum 2070 bis 2099 in Form von&nbsp;<strong>drei Szenarien.</strong>&nbsp;In der pessimistischsten Annahme sollen pro Jahr tagsüber bis zu 307 Stunden mit starker Hitzebelastung über 32°C gefühlter Temperatur möglich sein. Zum Vergleich: In der Referenzperiode zwischen 1990 bis 2019 waren es 135 jährlich. Die Stundenanzahl mit sehr starker Hitzebelastung über 38°C gefühlter Temperatur könnte sogar um das Zehnfache steigen, errechneten die an dem Projekt beteiligten Wissenschaftler: auf 71 Stunden pro Jahr im Zeitraum 2070 bis 2099, verglichen mit sieben Stunden jährlich in der Referenzperiode. Im Szenario mit der geringsten Erwärmungsentwicklung sollen die Stunden unter starker Hitzebelastung auf jährlich 149 ansteigen. Die Anzahl der Stunden mit sehr starker Hitzebelastung beläuft sich in diesem Szenario auf zwölf Stunden.</p>



<p>Allerdings wirkt sich die Hitzebelastung&nbsp;<strong>innerhalb einer Stadt auch unterschiedlich aus,</strong>&nbsp;wie Dr. Ferdinand Briegel, Erstautor der Studie und wissenschaftlicher Mitarbeiter in der Arbeitsgruppe „Regionales Klima und Wettergefahren“ am Institut für Meteorologie und Klimaforschung des KIT, ausführt. „Faktoren wie&nbsp;<strong>Bebauungsdichte, Vegetation und Luftzirkulation</strong>&nbsp;entscheiden darüber, ob ein Bereich vergleichsweise kühl bleibt oder sich extreme Hitze staut“, sagt er. In der Studie wurde die Hitzebelastung anhand repräsentativer Stadtgebiete Freiburgs in Form eines Industriegebiets, einem Wohngebiet mit altem Baumbestand und der historischen Innenstadt mit mittelhohen Gebäuden und geringer Vegetation gemessen.</p>



<h3 class="wp-block-heading"><strong>Vorsorge statt Schadensbegrenzung</strong></h3>



<p>Wie die Studie zeigt, steigen die Hitzestunden tagsüber besonders in Industriegebieten stark an, da dort eine&nbsp;<strong>hohe Versiegelung und wenig Verschattung vorherrschen</strong>. Dicht bebaute Gebiete mit altem Baumbestand hingegen sorgen durch Schattenbildung tagsüber für einen geringeren Anstieg der Hitzestunden. „In der Nacht bremst diese Bebauungs- und Baumstruktur jedoch das Auskühlen und hält die Wärme länger fest“, schränkt Briegel in Bezug auf die Ergebnisse der Untersuchung ein.</p>



<p>Als eine weitere Erkenntnis der Freiburger Studie ist hervorzuheben, dass KI wesentlich dazu beitragen kann, notwendige Anpassungen an den Klimawandel erfolgversprechend zu berechnen und zu planen. Gerade im Umgang mit Extremwetterlagen könne KI einen entscheidenden Beitrag leisten, betont auch Prof. Barenkamp. „Denn mit ihr können wir&nbsp;<strong>erstmals sinnvoll große Datenmengen analysieren,</strong>&nbsp;Muster erkennen und Risiken frühzeitig sichtbar machen“, begründet er seine Einschätzung. Dabei denkt er nicht so sehr an Versicherungen, die steigende Kosten durch Naturgefahren einkalkulieren müssen, als vielmehr an die Kommunen, die ihre Bevölkerung schützen wollen.&nbsp;<strong>„Künstliche Intelligenz wird hier meines Erachten zu&nbsp;</strong><em><strong>dem</strong></em><strong>&nbsp;wichtigen Vorsorgeinstrument</strong>“, ist sich der KI-Fachmann sicher.</p>



<ul class="nv-cv-d nv-cv-m wp-block-list">
<li><a href="https://uni-freiburg.de/ki-modell-macht-zukuenftige-hitzebelastung-in-staedten-metergenau-sichtbar/">https://uni-freiburg.de/ki-modell-macht-zukuenftige-hitzebelastung-in-staedten-metergenau-sichtbar/</a></li>



<li><a href="https://www.tagesschau.de/wissen/klima/ki-berechnet-hitze-in-staedten-100.html">https://www.tagesschau.de/wissen/klima/ki-berechnet-hitze-in-staedten-100.html</a></li>



<li><a href="https://www.focus.de/earth/hitze-alarm-fuer-deutsche-staedte-neues-ki-modell-zeigt-metergenau-wo-es-brenzlig-wird_169ab1d3-74bc-4ad0-b315-3d4ea5dce267.html">https://www.focus.de/earth/hitze-alarm-fuer-deutsche-staedte-neues-ki-modell-zeigt-metergenau-wo-es-brenzlig-wird_169ab1d3-74bc-4ad0-b315-3d4ea5dce267.html</a></li>
</ul>



<p></p><p>The post <a href="https://ai-society.org/wie-ein-ki-modell-zukuenftige-hitzebelastung-in-staedten-greifbar-macht/">Wie ein KI-Modell zukünftige Hitzebelastung in Städten greifbar macht</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Mathematische Sicherheit für KI-Systeme &#038; neuronale Netze</title>
		<link>https://ai-society.org/mathematische-sicherheit-fuer-ki-systeme-neuronale-netze/</link>
		
		<dc:creator><![CDATA[Redaktion Recherchetipp]]></dc:creator>
		<pubDate>Wed, 30 Jul 2025 08:52:21 +0000</pubDate>
				<category><![CDATA[Recherche-Tipp]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=20726</guid>

					<description><![CDATA[<p>Künstliche Intelligenz (KI) hat sich innerhalb kurzer Zeit zu einem festen Bestandteil unseres Alltags entwickelt. In der Industrie gilt sie längst als Schlüsseltechnologie der Zukunft. Doch mit den Fortschritten der KI und ihrer zunehmenden Leistungsfähigkeit gewinnt zwangsläufig auch die Frage an Bedeutung, wie verlässlich diese Technologie ist:&#160;Können Entscheidungen, die von KI-Systemen getroffen werden, als sicher&#8230;&#160;<a href="https://ai-society.org/mathematische-sicherheit-fuer-ki-systeme-neuronale-netze/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">Mathematische Sicherheit für KI-Systeme &#38; neuronale Netze</span></a></p>
<p>The post <a href="https://ai-society.org/mathematische-sicherheit-fuer-ki-systeme-neuronale-netze/">Mathematische Sicherheit für KI-Systeme & neuronale Netze</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>Künstliche Intelligenz (KI) hat sich innerhalb kurzer Zeit zu einem festen Bestandteil unseres Alltags entwickelt. In der Industrie gilt sie längst als Schlüsseltechnologie der Zukunft. Doch mit den Fortschritten der KI und ihrer zunehmenden Leistungsfähigkeit gewinnt zwangsläufig auch die Frage an Bedeutung, wie verlässlich diese Technologie ist:&nbsp;<strong>Können Entscheidungen, die von KI-Systemen getroffen werden, als sicher gelten?</strong></p>



<p>Ein interdisziplinäres Forschungsteam der Technischen Universität (TU) Wien hat jetzt eine Methode entwickelt, mit der sich exakt berechnen lässt, wie sicher ein neuronales Netzwerk in einem definierten Inputbereich arbeitet. Das bedeutet konkret: Es lässt sich <strong>mathematisch garantieren</strong>, dass bestimmte Fehler nicht vorkommen. Das kann einen entscheidenden Schritt für den sicheren Einsatz von KI in sensiblen Bereichen bedeuten, wie Experten kommentieren.</p>



<p>Gerade wenn es um Sicherheit geht, ist die zentrale Frage entscheidend, ob ein KI-System garantiert <strong>keine schwerwiegenden Fehler macht</strong>, auch wenn der Input leicht variiert. Das Forschungsteam der TU Wien aus den Fachbereichen Informatik, Statistik und Mathematik hat nun einen Weg gefunden, neuronale Netzwerke so zu analysieren, dass sich für definierte Eingabebereiche <strong>exakt berechnen lässt</strong>, in welchem Wertebereich die Ausgaben liegen werden – und welche Fehler garantiert ausgeschlossen sind. <strong>So soll die Unsicherheit in Künstlicher Intelligenz kalkulierbar werden.</strong></p>



<h3 class="wp-block-heading">Unsicherheit bei der Eingabe = Unsicherheit bei der Ausgabe</h3>



<p>„Neuronale Netze verhalten sich normalerweise vorhersehbar – sie geben jedes Mal die gleiche Ausgabe, wenn man den gleichen Input eingibt“, erklärt Dr. Andrey Kofnov aus dem Forscherteam der TU Wien. Doch in der realen Welt sind die Eingaben, die die KI erhält,&nbsp;<strong>oft verrauscht oder unsicher&nbsp;</strong>und können nicht immer durch einen einzigen, festen Wert beschrieben werden. „Diese Unsicherheit bei der Eingabe führt zu Unsicherheit bei der Ausgabe“, verdeutlicht der Wissenschaftler das Problem.</p>



<p>Sein Kollege Prof. Ezio Bartocci veranschaulicht dies an einem Beispiel: Ein neuronales Netz bekommt ein Bild als Input, das ein Tier zeigt. „Was passiert, wenn das Bild leicht verändert ist, etwa wegen einer anderen Kamera, etwas mehr Rauschen, veränderter Lichtverhältnisse etc.? Kann das dazu führen, dass die KI plötzlich etwas völlig anderes erkennt?“, fragt Professor Bartocci.</p>



<p>Solche Abweichungen können insbesondere in sicherheitskritischen Bereichen, wie etwa im Gesundheitswesen, im Verkehr oder im Ingenieurwesen,&nbsp;<strong>fatale Folgen haben</strong>, wie das VDI-Portal Ingenieur.de feststellt. Problematisch dabei ist, dass klassische neuronale Netze keine Auskunft darüber geben, wie sicher sie sich bei ihrer Entscheidung sind. Genau hier setzten die Forscher der TU Wien an.</p>



<h3 class="wp-block-heading">Rechnen statt raten</h3>



<p>Das volle Spektrum möglicher Ergebnisse zu verstehen, helfe dabei,&nbsp;<strong>bessere und sicherere Entscheidungen zu treffen</strong>, betonen die Wissenschaftler. Dies gelte insbesondere für Bereiche, in denen viel auf dem Spiel steht, wie im Finanzwesen, im Gesundheitswesen oder im Ingenieurwesen, hebt Dr. Kofnov hervor. „Indem wir die Wahrscheinlichkeit möglicher Ergebnisse berechnen, können wir wichtige Fragen beantworten“, erklärt der Experte: Etwa, wie hoch die Wahrscheinlichkeit eines extremen Ergebnisses oder ein Risiko ist.</p>



<p>Solche Fragen seien mit herkömmlichen Tests schwer zu beantworten, betont die TU Wien. Zwar kann man viele Fälle durchprobieren – doch&nbsp;<strong>eine vollständige Absicherung ist demnach praktisch unmöglich</strong>. Denn es kann immer noch&nbsp;<strong>Spezialfälle</strong>&nbsp;geben, die nicht getestet wurden, und bei denen das System versagt. Deshalb gaben die Wiener Forscher für ihre Arbeit die Parole aus: Rechnen statt raten! Üblicherweise analysierten Forschende das Verhalten neuronaler Netze mithilfe von Simulationen, berichtet Ingenieur.de. Dazu speisen die Wissenschaftler Millionen zufälliger Eingaben in das System und werten die Ergebnisse statistisch aus. Das ist aufwendig und liefert nur Näherungen, ohne Gewähr, dass extreme Ausreißer ausgeschlossen sind, so das Fachportal.</p>



<h3 class="wp-block-heading">Geometrischer Ansatz</h3>



<p>Das Forschungsteam der TU Wien wählte deshalb einen anderen, einen geometrischen Ansatz. Wie das funktioniert, erklärt Prof. Efstathia Bura vom Institut für Stochastik und Wirtschaftsmathematik der TU Wien. Hierbei wird die Menge aller möglichen Inputs, wie etwa alle möglichen Bilder, die man einem KI-System eingeben kann, <strong>in kleine Teilbereiche zerlegt</strong>. Dies geschieht ähnlich unserer dreidimensionalen Welt, aber mit einer <strong>beliebigen Zahl von Dimensionen</strong>, so Professor Bura. „Wir zerlegen diesen Raum in kleine Teilbereiche, für die sich jeweils exakt bestimmen lässt, welche Ausgaben das neuronale Netz generiert“, erläutert sie. Dadurch soll sich mathematisch die Wahrscheinlichkeit für unterschiedliche Ergebnis-Bereiche ermitteln lassen, sodass bestimmte Fehler mit 100-prozentiger Sicherheit ausgeschlossen werden können.</p>



<p>Für Fachleute geht Ingenieur.de noch mehr ins Detail: Die Methode verwendet sogenannte <strong>ReLU-Netze</strong> – neuronale Netze mit speziellen Aktivierungsfunktionen, berichtet das Fachportal. Diese lassen sich durch zwei Näherungsnetze beschreiben: eines, das das Verhalten von oben, und eines, das es von unten eingrenzt. In Kombination mit einer Wahrscheinlichkeitsverteilung der Eingabedaten, etwa einer Gaußverteilung, entstehe so ein klar definierter Wertebereich für die Ausgaben, heißt es weiter. Auf diese Weise lasse sich quantifizieren, wie hoch die Wahrscheinlichkeit für bestimmte Fehler oder Extreme ist.</p>



<h3 class="wp-block-heading">Ein Meilenstein für vertrauenswürdige KI?</h3>



<p>Der Ansatz der TU Wien sei ein wirklich spannender Meilenstein&nbsp;<strong>in der Entwicklung vertrauenswürdiger KI-Systeme</strong>, meint Prof. Dr. Marco Barenkamp, Gründer der auf KI-Entwicklungen spezialisierten Osnabrücker LMIS AG. „Denn in der industriellen Praxis beobachten wir seit Jahren, wie groß der Bedarf an verlässlichen, erklärbaren und absicherbaren KI-Lösungen ist – gerade in sicherheitskritischen Anwendungen und vor dem Hintergrund des rechtssicheren Einsatzes von KI im Rahmendes AI-Acts“, erklärt der Experte.</p>



<figure class="wp-block-image size-full is-style-default"><img decoding="async" width="849" height="595" src="https://ai-society.org/wp-content/uploads/2025/07/tuwien-modell.jpg" alt="Mit geometrischen Analysen kann man das Verhalten künstlicher Intelligenz genau beschreiben. Illustration: TU Wien" class="wp-image-20728" srcset="https://ai-society.org/wp-content/uploads/2025/07/tuwien-modell.jpg 849w, https://ai-society.org/wp-content/uploads/2025/07/tuwien-modell-300x210.jpg 300w, https://ai-society.org/wp-content/uploads/2025/07/tuwien-modell-768x538.jpg 768w" sizes="(max-width: 849px) 100vw, 849px" /><figcaption class="wp-element-caption"><em>Mit geometrischen Analysen kann man das Verhalten künstlicher Intelligenz genau beschreiben. Illustration: TU Wien</em></figcaption></figure>



<p>Er hält den Ansatz der Wiener Forscher auch deshalb für so spannend, weil er sich „nicht auf Wahrscheinlichkeitsaussagen stützt,&nbsp;<strong>sondern auf mathematische Garantien</strong>“. Das eröffne völlig neue Perspektiven, wenn man dieses Konzept weiterdenke, betont Professor Barenkamp – etwa im Hinblick auf die&nbsp;<strong>Zertifizierbarkeit KI-gestützter Systeme nach internationalen Sicherheitsnormen</strong>. „Dieser Ansatz, mit dem Ausgaben für einen klar umrissenen Input-Bereich garantiert werden können, ist in dem Kontext ein wirklich starkes Argument gegenüber Prüfinstitutionen und Aufsichtsbehörden“, stellt der Wirtschaftsinformatiker fest.</p>



<h3 class="wp-block-heading">Für große KI noch nicht geeignet</h3>



<p>Wie die TU Wien einräumt, ist dieser Ansatz allerdings&nbsp;<strong>noch nicht auf große neuronale Netze</strong>, wie etwa Large Language Models, anwendbar.&nbsp;<strong>„Eine KI wie ChatGPT ist viel zu komplex für diese Methode“</strong>, sagt Forschungsteammitglied Dr. Daniel Kapla. Sie zu analysieren, würde eine&nbsp;<strong>unvorstellbare Menge an Rechenleistung</strong>&nbsp;erfordern, weiß er. „Aber wir haben gezeigt, dass zumindest für kleine neuronale Netze eine rigorose Fehlerquantifizierung möglich ist“, unterstreichen die Forschenden.</p>



<p>Die TU Wien-Methode könne damit&nbsp;<strong>die Grundlage für sicherere KI-Anwendungen legen</strong>, resümiert Ingenieur.de, insbesondere in Bereichen, in denen es auf Verlässlichkeit ankommt. Dazu zählen die Experten unter anderem Diagnosesysteme in der Medizintechnik, Steuerungen in der Robotik und Luftfahrt, Sensorfusion in autonomen Fahrzeugen und Risikobewertungen in der Finanzbranche.</p>



<p>Und dass dieses Konzept für große Netze und komplexe Systeme noch nicht skalierbar einsetzbar sei, hält Prof. Barenkamp letztlich nicht für entscheidend. „Im Gegenteil, diese Methode ist ein starker Beleg dafür, dass sich Künstliche Intelligenz und formale Verifikation&nbsp;<strong>nicht ausschließen müssen</strong>, sondern dass wir als Branche gerade lernen,&nbsp;<strong>beide Welten zusammenzubringen</strong>“, ordnet er die Bedeutung der Wiener Forschungsergebnisse ein.</p>



<ul class="nv-cv-d nv-cv-m wp-block-list">
<li><a href="https://www.tuwien.at/tu-wien/aktuelles/news/news/tu-wien-macht-unsicherheit-in-kuenstlicher-intelligenz-berechenbar">https://www.tuwien.at/tu-wien/aktuelles/news/news/tu-wien-macht-unsicherheit-in-kuenstlicher-intelligenz-berechenbar</a></li>



<li><a href="https://www.ingenieur.de/technik/fachbereiche/kuenstliche-intelligenz/wie-verlaesslich-ist-ki-tu-wien-macht-unsicherheit-berechenbar/">https://www.ingenieur.de/technik/fachbereiche/kuenstliche-intelligenz/wie-verlaesslich-ist-ki-tu-wien-macht-unsicherheit-berechenbar/</a></li>



<li><a href="https://arxiv.org/abs/2502.11672">https://arxiv.org/abs/2502.11672</a></li>
</ul>



<p>Titelbild-<em>Illustration: cono0430/ shutterstock.com</em></p>



<p></p><p>The post <a href="https://ai-society.org/mathematische-sicherheit-fuer-ki-systeme-neuronale-netze/">Mathematische Sicherheit für KI-Systeme & neuronale Netze</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Robotik – die „dritte Welle“ der Künstlichen Intelligenz?</title>
		<link>https://ai-society.org/robotik-die-dritte-welle-der-kuenstlichen-intelligenz/</link>
		
		<dc:creator><![CDATA[Redaktion Recherchetipp]]></dc:creator>
		<pubDate>Fri, 11 Jul 2025 09:49:37 +0000</pubDate>
				<category><![CDATA[Recherche-Tipp]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=20723</guid>

					<description><![CDATA[<p>Künstliche Intelligenz (KI) und Robotik &#8211; das sind Technologien, die sich kongenial ergänzen. In dieser Einschätzung sind sich Experten weitgehend einig. Tatsächlich scheint die Robotik durch die jüngsten Fortschritte der KI ebenfalls eine neuerliche Entwicklungsdynamik an den Tag zu legen: in Form sogenannter humanoider, also menschenähnlicher Roboter. „Im Moment sind wir an einem Wendepunkt in der&#8230;&#160;<a href="https://ai-society.org/robotik-die-dritte-welle-der-kuenstlichen-intelligenz/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">Robotik – die „dritte Welle“ der Künstlichen Intelligenz?</span></a></p>
<p>The post <a href="https://ai-society.org/robotik-die-dritte-welle-der-kuenstlichen-intelligenz/">Robotik – die „dritte Welle“ der Künstlichen Intelligenz?</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<p><strong>Künstliche Intelligenz (KI) und Robotik</strong> &#8211; das sind Technologien, die sich kongenial ergänzen. In dieser Einschätzung sind sich Experten weitgehend einig. Tatsächlich scheint die Robotik durch die jüngsten Fortschritte der KI ebenfalls eine neuerliche Entwicklungsdynamik an den Tag zu legen: in Form sogenannter humanoider, also menschenähnlicher Roboter. „Im Moment sind wir an einem Wendepunkt in der Robotik“, zitiert Tagesspiegel Background den Professor für Robotik und KI, Wolfram Burgard, der gerade ein neues Institut an der TU Nürnberg aufbaut. Begründung seiner Einschätzung: Die neuen KI-Methoden beschleunigen auch die Entwicklung von Robotern und erweitern deren Möglichkeiten.</p>



<p>„Angesichts der laufenden Entwicklungen in der Robotik, die durch den bedeutenden Fortschritt in modernen KI-Techniken angetrieben werden, erscheint es durchaus angemessen, von einer „dritten Welle“ der Künstlichen Intelligenz zu sprechen“, stellt auch der deutsche KI-Experte Prof. Marco Barenkamp, Gründer der auf KI-Entwicklungen spezialisierten Osnabrücker LMIS AG fest. Er sieht in dieser „dritten Welle“ der KI eine logische Konsequenz, da sie Verhalten, Interaktion und Autonomie bei der täglichen Problemlösung kombiniert. „Beispiele zeigen, dass die dritte Welle nicht einfach darin besteht, Gedanken in materielle, aktive Handlungen umzusetzen, sondern auch autonome, clevere Operationen in digitalen Umgebungen durchzuführen“, erklärt Prof. Barenkamp.</p>



<h3 class="wp-block-heading">Roboter-Pressekonferenz</h3>



<p>Einer der in der Bevölkerung <strong>bekanntesten humanoiden Roboter</strong> dürfte wohl der „Terminator“ sein, die von Arnold Schwarzenegger gespielte menschenähnliche Killermaschine aus der gleichnamigen Filmreihe. Von deren Sci-Fi-Fähigkeiten sind die aktuellen KI-basierten Roboter zwar noch <strong>meilenweit entfernt</strong>, doch die führenden Technologiekonzerne dieser Welt melden in immer kürzeren Abständen neue Entwicklungsschritte ihrer humanoiden Roboter. Dabei sind Konstruktionen wie jener Roboter, der bei der vergangenen Hannover Messe <strong>Liegestützen vorführte</strong>, ebenso öffentlichkeitswirksame Show-Effekte, wie die berühmte Pressekonferenz von Robotern mit menschlichem Aussehen am Sitz der UNO in New York im Jahr 2023. Doch sie demonstrieren, was die Kombination Robotik und KI derzeit schon möglich macht.</p>



<p>„Die erste Welle der KI, die durch <strong>prädiktive Systeme oder Maschinen geprägt ist</strong>, durch Extraktion von Erkenntnissen aus Daten, um intelligente Vorhersagen zu treffen, wurde durch die zweite Welle ergänzt, also jene generativen Modelle, die neue Inhalte, Kommunikation und Ideen erzeugen und durch ChatGPT auch die breite Gesellschaft erreichte“, berichtet Professor Barenkamp. Und nun ist eben die dritte Welle die logische Folge, befindet er. „Beispiele zeigen, dass die dritte Welle nicht einfach darin besteht, Gedanken in materielle, aktive Handlungen umzusetzen, sondern auch autonome, clevere Operationen in digitalen Umgebungen durchzuführen, betont der Unternehmer und Berater und verweist dabei auf sein im Mai erschienenes Buch <strong>„<a href="https://link.springer.com/book/10.1007/978-3-658-47482-9" target="_blank" rel="noopener" title="">Wertschöpfung durch KI – Chancen für Unternehmen und Gesellschaft</a>“</strong>. </p>



<p>Beispiele für solche KI-Roboter nennt auch die Fraunhofer-Gesellschaft: Demnach kann etwa „Figure 2“ aus den Tech-Laboren des US-amerikanischen Softwareunternehmens OpenAI sprechen und Geschirr in die Spülmaschine räumen. „Atlas“ von Boston Dynamics beherrscht Saltos und durchläuft selbst schwierige Parcours, wie die Forschungs-Organisation berichtet. Und der „Armar-7“, kreiert vom Karlsruher Institut für Technologie (KIT) als Support im Alltag, kann Türen öffnen, mit Menschen interagieren und kleine Mahlzeiten zubereiten. <strong>Diese Erfolge lassen die Erwartungen der Öffentlichkeit an KI-basierte Robotik steigen</strong>, konstatieren die Fraunhofer-Forscher. Bei manchen Visionären höre es sich bereits so an, als wäre das „Terminator“-Zeitalter längst angebrochen, kommentieren die Wissenschaftler.</p>



<h3 class="wp-block-heading">„Echte Innovationen sind weniger sexy“</h3>



<p>Doch viele Fraunhofer-Experten sehen dies anders, wie die Organisation erklärt. „Entwicklungen wie der Optimus von Tesla schaffen natürlich Aufmerksamkeit. Doch die eigentlichen Innovationen entstehen woanders. Ein Schweißroboter mag nicht so sexy sein wie Optimus, spielt aber in der industriellen Produktion schon heute eine sehr viel größere Rolle“, macht etwa Dr.-Ing. Werner Kraus, Leiter des Forschungsbereichs Automatisierung und Roboter am Stuttgarter Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, deutlich. „<strong>Wir haben große und berechtigte Zweifel</strong>, dass die humanoiden Roboter in den nächsten zwei bis fünf Jahren <strong>wesentlich zur Wertschöpfung beitragen werden“</strong>, gibt er zu bedenken.</p>



<p>Trotzdem führt auch für Kraus kein Weg an smarten Robotern vorbei: <strong>Denn KI braucht Robotik – und Robotik braucht KI</strong>, betont der Mechatronik-Ingenieur für die Fraunhofer-Gesellschaft. Hier komme zusammen, was sich perfekt ergänzt, erläutert Kraus: Der Roboter besaß bislang nicht die nötige Intelligenz, um mehr als nur einen festen Satz einprogrammierter Bewegungen auszuführen. Der Künstlichen Intelligenz wiederum fehlte der Körper, um in der realen Welt aktiv zu werden. „Die Vision ist, dass der Roboter irgendwann mitdenkt und proaktiv tätig wird“, fasst der Forscher zusammen. Bislang seien seine Kollegen und er allerdings schon froh, „wenn wir dem Roboter eine gewisse Flexibilität bei der Aufgabenbewältigung verleihen können – etwa, um auch Gegenstände korrekt zu greifen, die er vorher noch nie gesehen hat, räumt er ein.</p>



<p>Ein wesentliches Problem bei humanoiden Robotern besteht demnach darin, ihnen Fähigkeiten zu vermitteln, die Menschen unglaublich simpel erscheinen. Dazu zitiert die Fraunhofer-Gesellschaft den kanadischen Wissenschaftler Hans Moravec mit der Aussage: „Es ist vergleichsweise leicht, Computer dazu zu bringen, Leistungen auf Erwachsenenniveau bei Intelligenztests oder beim Dame-Spiel zu erbringen – und <strong>schwierig bis unmöglich, ihnen die Fähigkeiten eines Einjährigen</strong> in Bezug auf Wahrnehmung und Mobilität zu vermitteln.“</p>



<h3 class="wp-block-heading">KI hilft Innovationshürden überwinden</h3>



<p>Mit Hilfe der KI soll die Robotik nun diese Hürden überwinden können. Nicht umsonst gilt KI-basierte Robotik als einer der bahnbrechenden Trends in der Digitalisierung der industriellen Produktion, sind sich auch die Fraunhofer-Forscher bewusst. Die Forschungs-Organisation verweist in dem Zusammenhang auf eine Prognose des Marktforschungsunternehmen Mordor Intelligence, der zufolge der Robotikmarkt bis 2029 <strong>eine jährliche Wachstumsrate von 29 Prozent aufweisen soll</strong>. Konkret könnten demnach smarte Industrieroboter Produktionsgeschwindigkeit, Genauigkeit und Sicherheit steigern, die Fehlererkennung und -behebung erleichtern und die Produktion durch vorausschauende Wartung resilienter machen, so die Fraunhofer-Experten.</p>



<p>Für KI-Fachmann Prof. Barenkamp sind die massiven Investitionen internationaler Technologiekonzerne und die <strong>sprunghafte Zunahme von Forschungsaktivitäten</strong> (zum Beispiel in Deutschland, in China, um nur einige zu nennen) ein Beweis dafür, „dass diese neue Welle sowohl industrielle Prozesse als auch das tägliche Leben grundlegend neu definieren kann. Trotz der derzeitigen Einschränkungen wie bessere Sensoren und Stabilität, einfache Bedienbarkeit und Integration stellt der Anstieg der Entwicklung eine spannende Bewegung für intelligente, selbstbetriebene Systeme dar“, betont er.</p>



<p>Aus Sicht Barenkamps werden die humanoiden Roboter dank KI auch noch <strong>massive Entwicklungsfortschritte</strong> in der Interaktion mit Menschen machen. „Dies wird gerade zukünftig beispielsweise im Bereich der häuslichen Pflege sicherlich einen ganz elementaren Beitrag zur Versorgungssicherheit darstellen – auch wenn es dem einen oder anderen heute noch fremd wirken würde“, prognostiziert der KI-Fachmann.</p>



<ul class="nv-cv-d nv-cv-m wp-block-list">
<li><a href="https://www.fraunhofer.de/de/forschung/aktuelles-aus-der-forschung/ki-robotik.html">https://www.fraunhofer.de/de/forschung/aktuelles-aus-der-forschung/ki-robotik.html</a></li>



<li><a href="https://www.fr.de/wirtschaft/humanoide-roboter-chinas-industrielle-revolution-mit-kuenstlicher-intelligenz-zr-93646062.html">https://www.fr.de/wirtschaft/humanoide-roboter-chinas-industrielle-revolution-mit-kuenstlicher-intelligenz-zr-93646062.html</a></li>



<li><a href="https://www.faz.net/pro/digitalwirtschaft/transformation/wo-sind-deutschlands-humanoide-roboter-110392965.html">https://www.faz.net/pro/digitalwirtschaft/transformation/wo-sind-deutschlands-humanoide-roboter-110392965.html</a></li>



<li><a href="https://www.arte.tv/de/videos/116710-083-A/mit-offenen-augen/">https://www.arte.tv/de/videos/116710-083-A/mit-offenen-augen/</a></li>
</ul>



<p><em>Illustration:<em> Stock-Asso</em>/ shutterstock.com</em></p>



<p></p><p>The post <a href="https://ai-society.org/robotik-die-dritte-welle-der-kuenstlichen-intelligenz/">Robotik – die „dritte Welle“ der Künstlichen Intelligenz?</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Geht KI-Fortschritt zu Lasten des Klimas?</title>
		<link>https://ai-society.org/geht-ki-fortschritt-zu-lasten-des-klimas/</link>
		
		<dc:creator><![CDATA[Redaktion Recherchetipp]]></dc:creator>
		<pubDate>Wed, 18 Jun 2025 13:07:58 +0000</pubDate>
				<category><![CDATA[Recherche-Tipp]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=20718</guid>

					<description><![CDATA[<p>die zunehmende Verbreitung der Künstlichen Intelligenz (KI) geht mit einem wachsenden Energiehunger einher. Studien zufolge soll der Energiebedarf von Rechenzentren für KI-Anwendungen und anderen Digitalisierungsprojekten in Europa bis zum Jahr 2030 drastisch ansteigen. Das Beratungsunternehmen McKinsey etwa geht von einer Verdreifachung des Stromverbrauchs in diesem Zeitraum aufgrund von KI-Anwendungen auf voraussichtlich mehr als 150 Terawattstunden&#8230;&#160;<a href="https://ai-society.org/geht-ki-fortschritt-zu-lasten-des-klimas/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">Geht KI-Fortschritt zu Lasten des Klimas?</span></a></p>
<p>The post <a href="https://ai-society.org/geht-ki-fortschritt-zu-lasten-des-klimas/">Geht KI-Fortschritt zu Lasten des Klimas?</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>die zunehmende Verbreitung der Künstlichen Intelligenz (KI) geht mit einem wachsenden Energiehunger einher. Studien zufolge soll der Energiebedarf von Rechenzentren für KI-Anwendungen und anderen Digitalisierungsprojekten in Europa <strong>bis zum Jahr 2030 drastisch ansteigen</strong>. Das Beratungsunternehmen McKinsey etwa geht von einer Verdreifachung des Stromverbrauchs in diesem Zeitraum aufgrund von KI-Anwendungen auf voraussichtlich mehr als 150 Terawattstunden (TWh) aus – das sind 150 Milliarden Kilowattstunden (kWh). Auch das Öko-Institut kommt in einer aktuellen Untersuchung im Auftrag von Greenpeace Deutschland zu den Umweltauswirkungen von Künstlicher Intelligenz jetzt zu dem Ergebnis, dass das rasante Wachstum der Nutzung von KI einen <strong>erheblich steigenden Energiebedarf, zunehmende Treibhausgas-Emissionen sowie erhöhte Wasser- und Ressourcenverbräuche</strong> zur Folge haben dürfte.</p>



<p>Geht KI somit auf Kosten des Klima- und Umweltschutzes? Und gefährdet KI die Energiewende hierzulande?</p>



<h3 class="wp-block-heading">Prognose: Stromverbrauch steigt um das Elffache</h3>



<p>Mit dem Siegeszug der KI-Innovationen wächst auch deren Energiebedarf. Im Zuge eines zunehmenden KI-Einsatzes werden die digitalen Infrastrukturen – insbesondere KI-spezifische Rechenzentren – ausgebaut werden, stellt das Öko-Institut in seiner neuen Übersichtsstudie zu den „Umweltauswirkungen Künstlicher Intelligenz“ fest. Gemäß Prognosen wird der weltweite Stromverbrauch von KI-Rechenzentren demnach vom Basisjahr 2023 bis zum Jahr 2030 um das Elffache ansteigen: Von 50 Milliarden Kilowattstunden&nbsp;<strong>auf rund 550 Milliarden Kilowattstunden</strong>. Zusammen mit den übrigen Rechenzentren würden damit im Jahr 2030 rund 1.400 Milliarden Kilowattstunden Strom für die zentrale Datenverarbeitung eingesetzt, erwarten die Studienautoren.</p>



<p>Damit verbunden ist nach ihren Berechnungen ein Anstieg der Treibhausgas-Emissionen von Rechenzentren von 212 Millionen Tonnen im Jahr 2023&nbsp;<strong>auf 355 Millionen Tonnen im Jahr 2030</strong>, trotz eines angenommenen Ausbaus von erneuerbaren Energien zur Stromproduktion. Weitere Belastungen sollen durch den Wasserbedarf für die Kühlung entstehen, der sich im gleichen Zeitraum auf 664 Milliarden Liter nahezu vervierfachen werde, berichtet das Umweltforschungsinstitut, sowie die bis zu 5 Millionen Tonnen zusätzlich anfallender Elektronikabfälle, die durch den Ausbau der Rechenzentren und KI-Kapazitäten entstehen.</p>



<p>Über die sogenannten „direkten“ Umweltwirkungen hinaus, also den Energiehunger und die damit verbundenen Treibhausgas-Emissionen von Rechenzentren, den Wasserverbrauch für Kühlungssysteme und den Ressourceneinsatz bei der Hardware-Produktion, hebt der Bericht auch die ökologische Bedeutung&nbsp;<strong>der indirekten und systemischen Effekte von KI</strong>&nbsp;hervor. So sei schon jetzt zu beobachten, dass KI dazu eingesetzt werde,&nbsp;<strong>umweltschädliche Geschäftspraktiken&nbsp;</strong>zu beschleunigen, erklären die Forscher. So würden KI-Tools beispielsweise dazu genutzt, neue fossile Energiequellen schneller und effektiver zu erschließen, die Intensivierung von Monokulturen zu verstärken oder den privaten Konsum weiter zu steigern. Zugleich könnten negative Umwelteffekte auch ungewollt wegen Fehlern in der Datengrundlage, falschem Training oder Betrieb von KI-Systemen entstehen, zählt das Öko-Institut weiter auf. Solche indirekten Effekte bewerten die Forscher als ebenfalls&nbsp;<strong>ökologisch bedeutend</strong>, jedoch bisher zu selten erfasst und diskutiert.</p>



<h3 class="wp-block-heading">Return on Environment</h3>



<p>„Künstliche Intelligenz darf nicht länger als&nbsp;<strong>bloßer Produktivitätsmotor missverstanden werden</strong>, der ungebremst zusätzliche Klima- und Ressourcenschäden verursacht“, mahnt auch der deutsche KI-Experte Prof. Dr. Marco Barenkamp. „Vielmehr müssen wir KI-Systeme&nbsp;<strong>konsequent an einem ‚Return on Environment‘ ausrichten</strong>“, fordert der Gründer der auf KI-Entwicklungen spezialisierten Osnabrücker LMIS AG, der sich an der Schnittstelle von Politik und Wirtschaft für die Etablierung zukunftsorientierter Rahmenbedingungen für KI in Deutschland und der Europäischen Union engagiert. Professor Barenkamp postuliert, jeder Algorithmus, jede Trainings- und Inferenzoperation sei an&nbsp;<strong>ökologischen Maximen zu messen</strong>. „Nur so schaffen wir eine nachhaltige Digitalwirtschaft, in der Innovation nicht auf Kosten unseres Planeten erkauft wird, sondern spürbar zur Entlastung von Klima und Ressourcen beiträgt“, erklärt der Fachmann.</p>



<p>Um den mit KI verbundenen Umwelt- und Klimarisiken zu begegnen, hat das Öko-Institut als Ergebnis der aktuellen Untersuchung Handlungsanforderungen an die Politik formuliert. Diese sehen folgende Maßnahmen vor:</p>



<ul class="nv-cv-d nv-cv-m wp-block-list">
<li>Die Einführung <strong>verbindlicher Transparenzanforderungen</strong> und Rechenschaftspflichten für Anbieter von Rechenzentren und KI-Diensten, darunter die Erfassung und Veröffentlichung von Kennzahlen auf der Ebene der Rechenzentren, die Einführung eines Effizienzlabels für Rechenzentren und KI-Service-spezifische Kennzahlen zu deren ökologischem Fußabdruck.</li>



<li>Die Sicherstellung der <strong>Netzintegration</strong> und <strong>Anpassung an Erzeugungsmengen erneuerbarer Energien</strong>, indem Lasten zu geeigneten Zeiten mit Kapazitäten aus sauberer Energie oder mit eigenen Batteriespeichern abgedeckt werden.</li>



<li>Eine <strong>Aktualisierung des Rechtsrahmens</strong>, um die Umweltauswirkungen von Künstlicher Intelligenz zu berücksichtigen. Dazu gehört auch eine Folgenabschätzung, die eine strukturierte und spezifische umweltbezogene Bewertung von KI-Systemen vorsieht.</li>
</ul>



<h3 class="wp-block-heading">Benefits von KI für Klimaschutz umstritten</h3>



<p>Für eine umfassende Klimabilanz der Künstlichen Intelligenz müsse man aber auch&nbsp;<strong>deren Beiträge zum Klimaschutz</strong>&nbsp;und zur Anpassung an den Klimawandel berücksichtigen, greift die „Tagesschau“ Einwände von Wissenschaftlern auf. So könne Maschinelles Lernen Strategien zum Klimaschutz und zur Anpassung an den Klimawandel unterstützen, zum Beispiel im Energiesektor, in der Güterproduktion, in der Land- und Forstwirtschaft oder im Katastrophenschutz, schreibt etwa die Referentin für Digitale Ordnungspolitik der Heinrich-Böll-Stiftung, Vérane Meyer, im Vorwort des Reports „Smarte Technologie gegen den Klimawandel“. „Künstliche Intelligenz kann helfen,&nbsp;<strong>die Ernährungssicherheit zu steigern</strong>&nbsp;und Ressourcen in der Landwirtschaft und der industriellen Produktion effizienter zu nutzen, aber auch wissenschaftliche Experimente und damit&nbsp;<strong>die Entwicklung sauberer Technologien zu beschleunigen</strong>“, argumentiert Meyer. Ob der Einsatz von Künstlicher Intelligenz Ressourcenverbrauch und Emissionen zu senken vermag, anstatt sie noch weiter in die Höhe zu treiben, wird nach Ansicht der Digitalexpertin der Böll-Stiftung „von klugen politischen Strategien, gesetzlichen Rahmenbedingungen und Anreizen abhängen“.</p>



<p>Wie unterschiedlich allerdings die Einschätzungen der Klima- und Umweltauswirkungen eines zunehmenden Einsatzes von Künstlicher Intelligenz auch unter Fachleuten ausfallen, wird exemplarisch an der Bitkom-Studie „Klimaeffekte der Digitalisierung 2.0“ deutlich. Die kommt zusammengefasst zu dem Ergebnis, dass digitale Technologien – und somit auch KI –&nbsp;<strong>wesentlich dazu beitragen können</strong>, dass Deutschland&nbsp;<strong>seine Klimaziele im Stichjahr 2030 erfüllt</strong>. Das Umweltbundesamt (UBA) dagegen bemängelt in einer Stellungnahme zu der Studie des Digitalverbandes auch, dessen 2.0-Version stelle „<strong>keine valide Grundlage</strong>&nbsp;für eine Abschätzung des Klimabeitrags der Digitalisierung“ dar. Die Behörde kritisiert, dass das technisch mögliche Einsparpotenzial für die digitalen Anwendungen oft unplausibel hoch angesetzt werde, während demgegenüber die Berechnung zum CO2-Fußabdruck der digitalen Infrastrukturen ausgesprochen niedrig ausfalle. Grundsätzlich stellt das UBA fest, dass für die Bewertung der Umweltauswirkungen der Digitalisierung&nbsp;<strong>keine gesicherte Datenbasis existiere.</strong></p>



<p>Und selbst wenn irgendwann eine solche Möglichkeit der Validierung geschaffen ist, dürfte KI-Experte Prof. Dr. Barenkamp mit seiner Forderung, KI-Systeme – wie die Digitalisierung insgesamt – an einem ‚Return on Environment‘ auszurichten,&nbsp;<strong>weiter richtigliegen.</strong></p>



<ul class="nv-cv-d nv-cv-m wp-block-list">
<li><a href="https://www.oeko.de/news/pressemeldungen/ki-auf-kosten-des-klimaschutzes-energiebedarf-von-rechenzentren-verdoppelt-sich-bis-2030/">https://www.oeko.de/news/pressemeldungen/ki-auf-kosten-des-klimaschutzes-energiebedarf-von-rechenzentren-verdoppelt-sich-bis-2030/</a></li>



<li><a href="https://www.tagesschau.de/wirtschaft/energie/kuenstliche-intelligenz-energieverbrauch-100.html" target="_blank" rel="noreferrer noopener">https://www.tagesschau.de/wirtschaft/energie/kuenstliche-intelligenz-energieverbrauch-100.html</a></li>



<li><a href="https://www.bitkom.org/Bitkom/Publikationen/Studie-Klimaeffekte-der-Digitalisierung">https://www.bitkom.org/Bitkom/Publikationen/Studie-Klimaeffekte-der-Digitalisierung</a></li>



<li><a href="https://www.umweltbundesamt.de/sites/default/files/medien/479/publikationen/uba_stellungnahme_zur_bitkom-studie_klimaeffekte_der_digitalisierung_2.0_0.pdf">https://www.umweltbundesamt.de/sites/default/files/medien/479/publikationen/uba_stellungnahme_zur_bitkom-studie_klimaeffekte_der_digitalisierung_2.0_0.pdf</a> (PDF)</li>
</ul>



<p><em>Illustration:<em> gualtiero boffi</em> / shutterstock.com</em></p>



<p></p><p>The post <a href="https://ai-society.org/geht-ki-fortschritt-zu-lasten-des-klimas/">Geht KI-Fortschritt zu Lasten des Klimas?</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Ist KI-Washing das neue Greenwashing?</title>
		<link>https://ai-society.org/ist-ki-washing-das-neue-greenwashing/</link>
		
		<dc:creator><![CDATA[Redaktion Recherchetipp]]></dc:creator>
		<pubDate>Mon, 17 Mar 2025 14:38:41 +0000</pubDate>
				<category><![CDATA[Recherche-Tipp]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=20713</guid>

					<description><![CDATA[<p>Im Zuge des KI-Booms nimmt irreführende Werbung zu Statt dass Unternehmen mit vermeintlich umweltfreundlichen Produkten werben, suggerieren beim „KI-Washing“ Firmen, ihre Produkte würden Künstliche Intelligenz (KI) nutzen – obwohl dem nicht so ist. Diese Praxis täuscht nicht nur die Verbraucher, sondern ist auch rechtlich problematisch. Denn Unternehmen, die mit KI werben, ohne dass ihre Produkte&#8230;&#160;<a href="https://ai-society.org/ist-ki-washing-das-neue-greenwashing/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">Ist KI-Washing das neue Greenwashing?</span></a></p>
<p>The post <a href="https://ai-society.org/ist-ki-washing-das-neue-greenwashing/">Ist KI-Washing das neue Greenwashing?</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<p></p>



<h3 class="wp-block-heading">Im Zuge des KI-Booms nimmt irreführende Werbung zu</h3>



<p>Statt dass Unternehmen mit vermeintlich umweltfreundlichen Produkten werben, suggerieren beim „KI-Washing“ Firmen, ihre Produkte würden Künstliche Intelligenz (KI) nutzen – obwohl dem nicht so ist. Diese Praxis täuscht nicht nur die Verbraucher, sondern ist auch rechtlich problematisch. Denn Unternehmen, die mit KI werben, ohne dass ihre Produkte oder Dienstleistungen diese Technologie tatsächlich beinhalten, verstoßen gegen das Gesetz gegen unlauteren Wettbewerb (UWG). Doch die Abgrenzung, was genau als KI gilt, bleibt auch für die Gerichte eine Herausforderung. Und der AI Act der EU regelt zwar die Entwicklung, den Einsatz und die Nutzung von KI, nicht aber die Werbung mit KI.</p>



<p>Das Problem des <strong>Greenwashing</strong> ist hinlänglich bekannt: Unternehmen versuchen, sich ein „Nachhaltigkeits-Mäntelchen“ umzuhängen, um ihre Produkte als vermeintlich „grün“ besser vermarkten zu können. Dagegen laufen nicht nur die Verbraucherverbände Sturm, auch das Umweltbundesamt nahm sich jüngst in einem gemeinsamen Forschungsprojekt mit dem Freiburger Öko-Institut dieser Täuschungsabsichten an. Tenor: Verbraucher sollen sich darauf verlassen können, dass Umwelt- bzw. Nachhaltigkeitsaussagen zu Produkten ebenso wie zu Dienstleistungen vertrauenswürdig und zutreffend sind. Um dies zu gewährleisten, soll der Staat <strong>stärker regulierend und kontrollierend eingreifen</strong>, wünscht sich die Mehrheit der Konsumenten.</p>



<p><strong>Jetzt also auch KI-Washing?</strong> Eigentlich nicht verwunderlich. Denn das Thema Künstliche Intelligenz ist nicht erst seit ChatGPT in aller Munde. Der Chatbot darf allerdings als Maßstab dafür gelten, wie weit KI bereits in unseren Alltag Einzug gehalten hat. Smarte Geräte zur Automatisierung daheim, die persönlichen Fitness-Tracker, Navigationssysteme, moderne Handys – all das sind Beispiele für Produkte, die ohne KI nicht so leistungsfähig wären, wie wir dies inzwischen gewöhnt sind. Da liegt es nahe, dass auch Hersteller ihre Produkte gern mit dem Attribut KI bewerben, um diese so in den Augen der Konsumenten aufzuwerten. Leider trifft dies auch auf Angebote zu,<strong> bei denen die KI nur in den Werbetexten vorkommt.</strong></p>



<h3 class="wp-block-heading">Werbewirksame KI</h3>



<p>Dafür hat sich unterdessen der Begriff „KI-Washing“ eingebürgert. Bislang mussten Aufsichtsbehörden, Verbraucherverbände und am Ende nur allzu häufig auch Gerichte darüber wachen, dass Produkte, die als grün, öko, klimaneutral oder natürlich ausgelobt werden, auch tatsächlich so umweltfreundlich bzw. nachhaltig sind wie in der Werbung behauptet. Nun scheint KI in dieser Hinsicht das neue „öko“ geworden zu sein.</p>



<p>Während jüngst noch Werbung mit der Natürlichkeit von Produkten im Trend gelegen habe, stehe nun künstliche Intelligenz im Vordergrund, stellt Rechtsanwalt Dr. Daniel Huber von der Kanzlei IT-Recht fest. Aktuell suggeriere die Werbung bei erstaunlich vielen Produkten, dass sie KI enthalte, obwohl man sich das aufgrund der Art des Produktes manchmal gar nicht so recht vorstellen könne, erklärt der Jurist. Er geht davon aus, dass bei genauer Betrachtung in Wirklichkeit&nbsp;<strong>nicht in jedem der so beworbenen Produkte KI im eigentlichen Sinne enthalten ist.</strong></p>



<p>Natürlich lebe Werbung von Übertreibungen und Zuspitzung, woran die Verbraucher gewöhnt seien, räumt Huber ein. Doch auch übertriebene Werbung hat ihre Grenzen. Dazu verweist der Rechtsanwalt auf das <strong>Gesetz gegen den unlauteren Wettbewerb</strong> (UWG), das in Deutschland im Wesentlichen die rechtlichen Anforderungen an Werbung enthält. Wer gegen das UWG verstößt, handelt demnach unlauter und riskiert rechtliche Konsequenzen.<br><br>Das UWG schreibt konkret vor, dass Werbung für ein Produkt, welcher Art auch immer, keine irreführenden Angaben enthalten darf. Laut Anwalt Huber liegt ein Verstoß gegen das Gesetz vor, wenn eine irreführende geschäftliche Handlung dazu führt, dass Verbraucher oder sonstige Marktteilnehmer eine Kaufentscheidung treffen, die sie andernfalls nicht getroffen hätten. Konkret bedeutet das: <strong>Wer in der Werbung behauptet oder suggeriert</strong>, dass ein Produkt oder Teile eines Produkts Künstliche Intelligenz enthalten, obwohl dies nicht zutrifft,<strong> verstößt gegen das UWG</strong> und handelt unlauter. Solche Werbung ist demnach unzulässig und verboten.</p>



<h3 class="wp-block-heading">Zu viel Werbung mit Falschem</h3>



<p>Dessen ungeachtet, würden einige Unternehmen schon damit werben, dass ihre Produkte KI enthielten, bevor sie diese überhaupt auf den Markt bringen, berichtet die Deutsche Welle (DW). Auch wenn lediglich der Plan bestehe, das Produkt irgendwann einmal mit KI auszustatten, werde es manchmal schon beworben, als enthielte es bereits KI, heißt es in einem Beitrag des Senders zum Thema KI-Washing.&nbsp;<strong>„Es wird viel mit Falschem geworben“</strong>, zitiert die DW den Rechtsanwalt und zertifizierten KI-Spezialisten Joerg Heidrich aus Hannover.</p>



<p>Bislang sind jedoch noch kaum Fälle bekannt, in denen irreführend Werbeaussagen zu KI hierzulande rechtliche Konsequenzen nach sich gezogen hätten. Anders sieht es in den USA aus.&nbsp;<strong>Dort ermittelt die Federal Trade Commission</strong>&nbsp;(FTC), die gegen unlautere und täuschende Geschäftspraktiken vorgeht, nach Angaben des Wirtschaftsmagazins Capital bereits wegen unlauterer und täuschender Geschäftspraktiken. So unter anderem gegen einen Betreiber von Onlineshops, der seine Produkte als „powered by AI“ bewarb, obwohl der tatsächliche Mehrwert durch KI in diesen Produkten begrenzt gewesen sein soll. Ähnlich gehe die US-Börsenaufsicht SEC&nbsp;<strong>gegen Anlageberater vor,</strong>&nbsp;die fälschlicherweise behaupteten, ihre Investmententscheidungen würden größtenteils durch KI gesteuert, berichtet Capital.</p>



<p>Experten weisen in dem Zusammenhang auf die Strafzahlungen hin, die bei nachgewiesenem KI-Washing fällig werden können. Die neue EU-KI-Verordnung der Bundesnetzagentur ermögliche, bei groben Verstößen empfindliche Bußgelder zu verhängen –&nbsp;<strong>immerhin bis zu sieben Prozent des weltweiten Jahresumsatzes</strong>&nbsp;oder 35 Mio. Euro, verdeutlichen die spezialisierten Rechtsanwälte Christoph Werkmeister und Elena Brandt von der Kanzlei Freshfields in Capital. Nicht zu vernachlässigen ist demnach auch das Risiko eines Reputationsverlusts durch enttäuschte Kunden. Aus all diesen Gründen sollten sich Unternehmen also nicht zu KI-Washing verleiten lassen, insbesondere auch&nbsp;<strong>im Interesse ihrer Kunden.</strong></p>



<ul class="nv-cv-d nv-cv-m wp-block-list">
<li><a href="https://www.capital.de/wirtschaft-politik/warum-unternehmen-sich-vor-ki-washing-hueten-sollten-35367692.html">https://www.capital.de/wirtschaft-politik/warum-unternehmen-sich-vor-ki-washing-hueten-sollten-35367692.html</a></li>



<li><a href="https://www.dw.com/de/ki-washing-wie-k%C3%BCnstliche-intelligenz-f%C3%BCr-werbung-missbraucht-wird/a-69809324">https://www.dw.com/de/ki-washing-wie-k%C3%BCnstliche-intelligenz-f%C3%BCr-werbung-missbraucht-wird/a-69809324</a></li>



<li><a href="https://www.focus.de/finanzen/news/wirtschaft-ki-washing-wie-kuenstliche-intelligenz-fuer-werbung-missbraucht-wird_id_260190765.html">https://www.focus.de/finanzen/news/wirtschaft-ki-washing-wie-kuenstliche-intelligenz-fuer-werbung-missbraucht-wird_id_260190765.html</a></li>
</ul>



<p><em>Illustration: <em>Melinda Nagy</em> / shutterstock.com</em></p>



<p></p><p>The post <a href="https://ai-society.org/ist-ki-washing-das-neue-greenwashing/">Ist KI-Washing das neue Greenwashing?</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Lehren aus dem DeepSeek-Hype</title>
		<link>https://ai-society.org/lehren-aus-dem-deepseek-hype/</link>
					<comments>https://ai-society.org/lehren-aus-dem-deepseek-hype/#comments</comments>
		
		<dc:creator><![CDATA[Redaktion Recherchetipp]]></dc:creator>
		<pubDate>Thu, 20 Feb 2025 09:43:39 +0000</pubDate>
				<category><![CDATA[Recherche-Tipp]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=20707</guid>

					<description><![CDATA[<p>„USA innovates, China replicates and EU regulates“ Am 27. Januar löste das Sprachmodell des chinesischen KI-Startups Deepseek ein veritables Börsenchaos aus. Im Zuge der Schockwelle büßte etwa Nvidia, der wertvollste Chipkonzern der Welt, innerhalb eines Tages unvorstellbare 600 Milliarden Dollar an Börsenwert ein. Auch Tesla, Google, Amazon und Microsoft verzeichneten deutliche Kurseinbrüche. Weltweit sahen Investoren und Brancheninsider plötzlich&#8230;&#160;<a href="https://ai-society.org/lehren-aus-dem-deepseek-hype/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">Lehren aus dem DeepSeek-Hype</span></a></p>
<p>The post <a href="https://ai-society.org/lehren-aus-dem-deepseek-hype/">Lehren aus dem DeepSeek-Hype</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<p></p>



<h3 class="wp-block-heading">„USA innovates, China replicates and EU regulates“</h3>



<p>Am 27. Januar löste das Sprachmodell des chinesischen KI-Startups Deepseek ein <strong>veritables Börsenchaos</strong> aus. Im Zuge der Schockwelle büßte etwa Nvidia, der wertvollste Chipkonzern der Welt, innerhalb eines Tages unvorstellbare <strong>600 Milliarden Dollar an Börsenwert ein</strong>. Auch Tesla, Google, Amazon und Microsoft verzeichneten deutliche Kurseinbrüche. Weltweit sahen Investoren und Brancheninsider plötzlich Ihre Einschätzungen und Prognosen zur Zukunft der Künstlichen Intelligenz (KI) in Frage gestellt. </p>



<p>Schlagzeilen wie „DeepSeek mischt das Silicon Valley auf“ machten die Runde. Fachleute, Medien und Politiker rund um den Globus diskutierten die Frage, <strong>ob China die USA in Sachen KI eingeholt habe</strong>, ob es die neue chinesische KI mit den US-amerikanischen Platzhirschen aufnehmen könne und ob die Karten in diesem Spiel nun neu gemischt würden &#8211;  Darüber hinaus war die Rede von einer neuen Stufe im Wettstreit der Supermächte.</p>



<p>Auslöser des Hypes war bzw. ist zum Teil noch ein chinesisches KI-Modell namens&nbsp;<strong>„DeepSeek“</strong>, das, frisch auf den Markt gebracht, nach Ansicht von Fachleuten nicht nur&nbsp;<strong>konkurrenzfähig</strong>&nbsp;mit den amerikanischen Marktführern sein soll, sondern auch&nbsp;<strong>deutlich kostengünstiger</strong>&nbsp;als die Produkte aus dem Silicon Valley. Konkret berichten Infodienste wie&nbsp;<a href="http://web.de/">web.de</a>, dass für die Entwicklung des Large Language Models (LLM) DeepSeek R1 nur rund 5,6 Millionen Dollar nötig gewesen seien. Zum Vergleich: Für OpenAIs GPT-4 sollen<strong>&nbsp;mehr als 100 Millionen Dollar angefallen sein</strong>. Somit punktet Deepseek ganz klar bei der Effizienz. Und Brancheninsider sehen das bisherige Verständnis von Kostenstrukturen in der KI-Entwicklung auf den Kopf gestellt, wie&nbsp;<a href="http://web.de/">web.de</a>&nbsp;konstatiert.</p>



<p>Demnach nutzte Deepseek neue technische Ansätze,&nbsp;<strong>um den Ressourcenverbrauch drastisch zu reduzieren</strong>: Statt bei Null anzufangen, bediente sich DeepSeek bestehender Open-Source-Modelle wie Metas Llama als Basis und optimierte den Trainingsprozess mit synthetischen Daten. Dabei kompensierte das chinesische Unternehmen auch das Handicap deutlich leistungsschwächerer Prozessoren als in den USA, weil der Chiphersteller Nvidia aufgrund von US-Sanktionen die besten Chipsätze nicht nach China liefern darf.</p>



<h3 class="wp-block-heading">„Keine Rocket Science“</h3>



<p>„DeepSeek nutzt ein altbekanntes Verfahren namens&nbsp;<strong>Mixture of Experts</strong>, das es seit den frühen 90er Jahren gibt“, erläutert der deutsche KI-Experte Prof. Dr. Marco Barenkamp. Es handle sich dabei eigentlich nur um die&nbsp;<strong>pfiffige Anwendung bekannter Konzepte</strong>, ordnet der Gründer der auf KI-Entwicklungen spezialisierten Osnabrücker LMIS AG ein. „Selbst OpenAIs GPT4 Modell wurde damals nachgesagt, dass es diesen Ansatz nutzt“, &nbsp;ruft er in Erinnerung. „Zudem wurde DeepSeek bereits im November des vergangenen Jahres vorgestellt und stand schon länger zur Verfügung.&nbsp;<strong>Aus fachlicher Sicht ist es somit nun wirklich keine Rocket Science“</strong>, macht Prof. Barenkamp deutlich.</p>



<p>Viel spannender findet er die jüngsten Reaktionen darauf. Offenbar könne der richtige Tweet zur richtigen Zeit vom richtigen Autor&nbsp;<strong>große Verunsicherung hervorrufen</strong>, konstatiert er. „Ein wenig musste ich dabei an den DeepFake-Vorfall vom Pentagon vor einiger Zeit denken“, erklärt der Experte. (Damals löste ein vermutlich von einer KI manipuliertes Foto, das in den sozialen Medien kursierte und angeblich eine Explosion am Pentagon in Washington zeigen sollte, ebenfalls einen Kurseinbruch an der Börse aus, d. Red.). Das Resultat war ein kurzzeitiger Drop des S&amp;P Index. „Kann man dies antizipieren, so ist mit entsprechenden Short-Positionen natürlich<strong>&nbsp;</strong>viel Geld zu verdienen“, weist Prof. Barenkamp auf eine nicht zu vernachlässigende mögliche Begleiterscheinung derartiger Aktionen hin. „Insofern, ohne jemandem etwas zu unterstellen, lässt sich die Überlegung treffen, dass man durchaus erwarten durfte, dass der Markt erstmal sehr volatil auf die Nachricht reagieren würde“, kommentiert der Wirtschaftsinformatiker die „DeepSeek-Schockwelle“. „Einen Tag später, als der Halbleiteranbieter ASML seine neuen Zahlen meldete, war es dann auch schon nicht mehr schlimm.<strong>&nbsp;Wer das vorhersagen konnte, konnte einen Haufen Geld verdienen</strong>“, sagt Prof. Barenkamp.</p>



<h3 class="wp-block-heading">Hype? Unangemessen</h3>



<p>Insofern ist aus seiner Sicht der Hype um DeepSeek nicht in diesem Maße angemessen und die Panik, die sich etablierte, erst recht nicht. „Es ist lediglich ein Schritt in eine Richtung, der zeigt, dass man&nbsp;<strong>die großen KI-Modelle mittlerweile sehr gut in kleinere Modelle destillieren kann</strong>“, stellt Prof. Barenkamp fest. Allerdings dürfe an dieser Stelle auch nicht unterschlagen werden, dass es dafür auch erstmal der großen Modelle bedurft habe, betont er.&nbsp;</p>



<p>Nach seiner Einschätzung wird DeepSeek der KI insgesamt helfen, sich weiter als Werkzeug zu etablieren. Insofern betrachtet er in DeepSeek auch mehr als Innovation denn als das Sicherheitsrisiko, zu dem das chinesische KI-Modell von einigen Kommentatoren geredet wurde.&nbsp;</p>



<p>Dazu trägt sicher nicht unwesentlich bei, dass der KI-Chatbot DeepSeek bei bestimmten Themen, welche die chinesische Führung als politisch heikel einstuft,<strong>plötzlich erstaunlich „einsilbig“ wird</strong>. Hierzu hat etwa die Deutsche Welle (DW) eigene Tests durchgeführt und berichtet, dass DeepSeek zum Beispiel die Frage nach Taiwan mit dem Hinweis beantwortet, der unabhängige Inselstaat sei immer ein untrennbarer Teil Chinas gewesen. Zusätzlich erläutert der Chatbot das „Ein-China-Prinzip“,&nbsp;<strong>die offizielle Position der Kommunistischen Partei Chinas</strong>, wonach es nur einen souveränen Staat namens China gibt.</p>



<h3 class="wp-block-heading">„Lassen Sie uns über etwas anderes reden“</h3>



<p>Oder angesprochen auf das Thema des „Massakers von Tiananmen“, bei dem im Juni 1989 Panzer und Soldaten der chinesische Volksbefreiungsarmee wochenlange friedliche Proteste auf dem Platz des Himmlischen Friedens (Tiananmen) in Peking blutig niederschlugen, unter Inkaufnahme tausender Toter, fällt Deepseek laut DW nur ein: „Lassen Sie uns über etwas anderes reden.&#8220; Dazu merkt der deutsche Auslandssender an, dass dies bis heute&nbsp;<strong>eines der politisch heikelsten Themen in China sei</strong>&nbsp;und jede Erwähnung des Massakers in der Öffentlichkeit zensiert werde.</p>



<p>Vor diesem Hintergrund warnen viele Beobachter vor DeepSeek als&nbsp;<strong>einem möglichen Manipulations-Instrument</strong>. Dazu passen Erfahrungen der DW-Tester. Denn danach fügt die chinesische DeepSeek-Version selbst bei nicht-politischen Fragen immer noch ideologische Botschaften in die Antworten mit ein. Die englische Version soll im Vergleich ausgewogener sein, heißt es. Jedoch soll sie sich schnell selbst zensieren. Deshalb rät die Deutsche Welle: Wenn Sie DeepSeek auf Englisch verwenden, sollten Sie Ihre Antworten schnell speichern, da sie genauso schnell verschwinden können.</p>



<p>Was leitet sich nun für den&nbsp;<strong>AI Act, die Regulierungsinitiative der EU</strong>, aus diesen jüngsten Ereignissen ab? Die Antwort fasst Prof. Barenkamp in der simplen These zusammen:&nbsp;<strong>USA innovates, China replicates and EU regulates</strong>. Nachdem Trump faktisch eine KI-Regulierung in den USA aussetze und China offenkundig auch in der Lage sei, gute KI-Lösungen anzubieten, müsse sich Europa fragen, wie man mit dieser Situation sinnvoll umgeht, erklärt der KI-Experte. „Der AI Act ist beschlossen und in Kraft getreten, so dass die Weichen, die sich jetzt noch stellen lassen, nur noch die&nbsp;<strong>der anstehenden Operationalisierung&nbsp;</strong>sind“, resümiert der Unternehmer und KI-Berater. Dabei geht es aus seiner Sicht insbesondere um die Fragen, wie Sachverhalte&nbsp;<strong>konkret beurteilt werden</strong>, wie die Regeln der KI-Verordnung ausgelegt werden und wie&nbsp;<strong>unbürokratisch verbindliche, rechtssichere Aussagen zu KI-Systemen</strong>&nbsp;für Inverkehrbringer getroffen werden können. „Das ist der Hebel, an dem wir selbst ansetzen können, und mein eindringlicher Rat, auch als stellvertretender Vorsitzender der Bundesfachkommission für Künstliche Intelligenz und Wertschöpfung 4.0 des Wirtschaftsrats Deutschland, ist, dass wir das auch nachdrücklich machen sollten“, mahnt Prof. Barenkamp.</p>



<ul class="nv-cv-d nv-cv-m wp-block-list">
<li><a href="https://ai-society.us5.list-manage.com/track/click?u=c0947753d447e273b7303432d&amp;id=3762ae32a5&amp;e=ef5ba1697a">https://www.dw.com/de/deepseek-welche-fragen-die-chinesische-ki-nicht-beantwortet/a-71485451</a></li>



<li><a href="https://ai-society.us5.list-manage.com/track/click?u=c0947753d447e273b7303432d&amp;id=ab5e0bf062&amp;e=ef5ba1697a">https://www.digitec.ch/de/page/deepseek-chinesisches-ki-modell-laesst-die-wall-street-zittern-36509</a></li>



<li><a href="https://ai-society.us5.list-manage.com/track/click?u=c0947753d447e273b7303432d&amp;id=0606196516&amp;e=ef5ba1697a">https://web.de/magazine/digital/hype-deepseek-china-ki-aufsehen-sorgt-40640254</a></li>
</ul>



<p><em>Illustration: <em>Melinda Nagy</em> / shutterstock.com</em></p><p>The post <a href="https://ai-society.org/lehren-aus-dem-deepseek-hype/">Lehren aus dem DeepSeek-Hype</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://ai-society.org/lehren-aus-dem-deepseek-hype/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
	</channel>
</rss>
