<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Marco Barenkamp | Academic Society for Artificial Intelligence</title>
	<atom:link href="https://ai-society.org/author/marco-barenkamp/feed/" rel="self" type="application/rss+xml" />
	<link>https://ai-society.org</link>
	<description>Neues aus der Forschung zum Thema Künstliche Intelligenz</description>
	<lastBuildDate>Thu, 10 Aug 2023 13:57:55 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://ai-society.org/wp-content/uploads/2021/10/cropped-ASAI-favicon-32x32.png</url>
	<title>Marco Barenkamp | Academic Society for Artificial Intelligence</title>
	<link>https://ai-society.org</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Künstliche Intelligenz: Genial und begrenzt zugleich</title>
		<link>https://ai-society.org/kuenstliche-intelligenz-genial-und-begrenzt-zugleich/</link>
		
		<dc:creator><![CDATA[Marco Barenkamp]]></dc:creator>
		<pubDate>Thu, 10 Aug 2023 13:57:54 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=20485</guid>

					<description><![CDATA[<p>ChatGPT von OpenAI oder Bard von Google beziehungsweise ihre zugrundeliegenden Sprachmodelle GPT-4 oder PalM2, aber auch andere große Sprachmodelle beherrschen so manche Fähigkeit, die noch vor wenigen Jahren als Meilenstein der künstlichen Intelligenz (KI) gefeiert worden wäre. Eloquent beantworten sie Fragen, bestehen akademische Prüfungen mit Bravour und verblüffen mit erstaunlichem Allgemeinwissen. Doch gibt es auch&#8230;&#160;<a href="https://ai-society.org/kuenstliche-intelligenz-genial-und-begrenzt-zugleich/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">Künstliche Intelligenz: Genial und begrenzt zugleich</span></a></p>
<p>The post <a href="https://ai-society.org/kuenstliche-intelligenz-genial-und-begrenzt-zugleich/">Künstliche Intelligenz: Genial und begrenzt zugleich</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>ChatGPT von OpenAI oder Bard von Google beziehungsweise ihre zugrundeliegenden Sprachmodelle GPT-4 oder PalM2, aber auch andere große Sprachmodelle beherrschen so manche Fähigkeit, die noch vor wenigen Jahren als Meilenstein der künstlichen Intelligenz (KI) gefeiert worden wäre. Eloquent beantworten sie Fragen, bestehen akademische Prüfungen mit Bravour und verblüffen mit erstaunlichem Allgemeinwissen. Doch gibt es auch einfache Aufgaben, an denen die Systeme kläglich scheitern? Was also ist wirklich dran an der &#8222;Genialität&#8220; dieser Systeme? Wissenschaftler rätseln noch, wie die Fähigkeiten richtig zu bewerten sind.</p>



<p>Kürzlich sorgte eine Studie für Aufsehen, die zeigt: Den aktuell besten KI-Systemen bereiten schon einfache visuelle Logik-Rätsel große Probleme. Das Team um Melanie Mitchell vom Santa Fe Institute präsentierte GPT-4 Aufgaben, bei denen farbige Blöcke in einem Raster angeordnet sind. Aus mehreren Beispielen soll auf die zugrundeliegende Regel geschlossen und vorhergesagt werden, wie sich die Blöcke als nächstes verändern. Die meisten Menschen lösen solche Aufgaben mühelos. GPT-4 jedoch schaffte nur ein Drittel in einer Kategorie richtig und in anderen erreichte sie teils nur 3 Prozent. Andere KI-Systeme, die speziell für solche Rätsel entwickelt wurden, erreichten zwar bessere, aber immer noch deutlich schlechtere Ergebnisse als Menschen. Die Studie zeigt: Den künstlichen Systemen fällt es aktuell noch schwer, zugrundeliegende Konzepte zu erkennen und daraus zu lernen. Eines der Kennzeichen menschlicher Intelligenz ist aber gerade die Fähigkeit zur Abstraktion und zum Transfer auf neue Situationen.</p>



<p>Woran liegt es also, dass KI-Systeme den Menschen in solchen Basisfähigkeiten noch so deutlich unterlegen sind, sind doch die Konversationen mit ihnen teils von verblüffender Eloquenz? Eine Erklärung ist, dass sie anders lernen als Menschen. Große Sprachmodelle wie GPT-4 werden durch das Durchforsten gewaltiger Mengen an Texten trainiert. Sie erkennen statistische Korrelationen zwischen Wörtern, um bei einer Eingabe das wahrscheinlich nächste Wort zu ermitteln. Menschen hingegen erleben schon als Kind konkrete Erfahrungen mit Objekten und Situationen und bauen ihre eigene Repräsentation der Welt auf und entwickeln kognitive Fähigkeiten wie Abstraktionsvermögen und logisches Denken.</p>



<p>Dies könnte erklären, warum GPT-4 zwar Texte wie von Menschen verfasst in hoher Qualität ausgeben kann, aber an einfachen visuellen Tests scheitert. Das Training beruht in diesem Fall nämlich ausschließlich auf Sprache und nicht auf realen Erfahrungen und dem notwendigen Verbinden von Sprache mit konkreten, erlebten Dingen. Manche Forscher vermuten, dass KI- Systeme daher Wörter auch nicht so &#8222;verstehen&#8220; wie wir Menschen, da sie dadurch keine echte Begrifflichkeit der Welt entwickelt können.</p>



<p>Eine Kontroverse entstand kürzlich durch eine Studie des Microsoft-Forschers Sébastien Bubeck und Kollegen mit dem provokanten Titel &#8222;Funken der künstlichen Intelligenz: Frühe Experimente mit GPT-4&#8220;. Anhand einer Vorabversion von GPT-4 dokumentierten sie eine Reihe erstaunlicher Fähigkeiten abseits der reinen Sprachverarbeitung. So konnte GPT-4 Tests zur &#8222;Theory of Mind&#8220; bestehen, mit denen Psychologen typischerweise bestimmte Kernfähigkeiten des menschlichen Geistes überprüfen. Dabei geht es darum, die geistigen Zustände anderer vorherzusagen und nachzuvollziehen. Diese Forscher sahen dies indes als Hinweis, dass GPT-4 sehr wohl eine interne Repräsentation der Welt aufbaut und in gewissem Sinne &#8222;denkt&#8220;. Sie bezeichneten GPT-4 als mögliche &#8222;frühe Version einer allgemeinen KI&#8220;.</p>



<p>Die Debatte zeigt: Es ist extrem schwierig, angemessene Tests zu finden, um die Fähigkeiten von KI-Systemen umfassend zu verstehen. Mit klassischen Benchmarks und akademischen Prüfungen ist es nicht getan. Doch was genau die &#8222;richtigen&#8220; Tests sind, darüber herrscht noch wenig Klarheit in der Wissenschaft. So wird weiter lebhaft debattiert, was hinter den teils erstaunlichen, teils begrenzten Fähigkeiten von Systemen wie GPT-4 steckt.</p>



<p>Wie nun also die wahren Fähigkeiten und Grenzen solcher Systeme bestimmen? Jahrzehntelang galt der Turing-Test als Maßstab für Intelligenz. Wenn eine KI so menschlich wirkt, dass man sie im Chat nicht von einer Person unterscheiden kann, hat sie gewissermaßen &#8222;intelligentes&#8220; Verhalten gezeigt. Doch KI-Experten halten diesen Test mittlerweile für überholt. Zum einen messe er mehr die Fähigkeit zum Täuschen als echte Intelligenz und zum anderen können selbst einfache Chatbots mittlerweile viele Menschen täuschen, zumindest für kurze Dialoge. Dies bedeute daher nicht, dass diese Systeme menschlicher Intelligenz tatsächlich nahekommen. Man könne sie leicht entlarven, sagen Experten, indem man ihre Schwachstellen gezielt ausnutzt. Etwa, indem man Situationen so variiert, so dass sie nicht mehr dem Muster ihrer Trainingsdaten folgen. Oder wenn man Gespräche aus ihrem &#8222;Komfortbereich&#8220; führt, was beispielsweise Microsoft dazu veranlasste, dass man dem Bing- Chatbot nur noch fünf Fragen in Folge zu einem bestimmten Thema stellen darf, damit längere Gespräche nicht mehr in Beleidigungen enden können.</p>



<p>Daher setzen Wissenschaftler heute eher auf eine Vielzahl spezifischer Tests, um Stärken und Grenzen eines KI-Sprachmodells differenziert abzubilden. So wurden KI-Systeme akademischen und beruflichen Prüfungen unterzogen, die eigentlich für Menschen konzipiert wurden. So bestand GPT-4 kürzlich eine Reihe anspruchsvoller Examen, darunter für Medizin und Jura, mit teils sehr guten Ergebnissen.</p>



<p>Doch selbst solche vermeintlichen Erfolge sind mit Vorsicht zu interpretieren. Während gute Ergebnisse beim Abschneiden dieser Tests bei Menschen meist eine generelle kognitive Leistungsfähigkeit unterstellen, lässt sich dies bei KI-Systemen nicht so einfach verallgemeinern, da diese völlig anders funktionieren als Menschen. So ließe sich GPT-4 etwa durch minimale Veränderung von Prüfungsfragen oder Kontexten bei Themen durchfallen lassen, die es zuvor sicher beherrscht zu haben schien. Die Fähigkeiten sind bisweilen also nur oberflächlich vorhanden und bereits bei einer geringen Variation einer Aufgabe zeigt sich die nackte Unkenntnis über die Materie.</p>



<p>Es gilt also, geeignete Tests zu finden, die KI-Systeme umfassend &#8222;durchleuchten&#8220;. Dabei dürfe man sie aber nicht vorschnell nach Maßstäben menschlicher Intelligenz beurteilen. Man neigt dazu, intelligent scheinende Fähigkeiten wie beim Menschen auf echtes Verstehen und Denken zurückzuführen. Doch KI-Systeme funktionieren fundamental anders. Die Herausforderung ist, Tests zu entwickeln, die ihre Besonderheiten abzubilden vermögen.</p>



<p>Wozu das Ganze? Zum einen geht es um Grundlagenforschung &#8211; zu verstehen, was Intelligenz ausmacht und wie sie entsteht. Zum anderen ist es für die praktische Anwendung wichtig, gerade auch die Grenzen von KI-Systemen zu kennen. Nur so können sie etwa in Medizin oder Recht sicher eingesetzt werden. Es zeigt sich: Die vermeintlich intelligenten Systeme sind zugleich genial und begrenzt. Ihre wahre Natur zu ergründen, ist eine der spannendsten Fragen der modernen Informatik.</p><p>The post <a href="https://ai-society.org/kuenstliche-intelligenz-genial-und-begrenzt-zugleich/">Künstliche Intelligenz: Genial und begrenzt zugleich</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Artificial Intelligence Act – noch eine EU-Grundverordnung?</title>
		<link>https://ai-society.org/artificial-intelligence-act-noch-eine-eu-grundverordnung/</link>
		
		<dc:creator><![CDATA[Marco Barenkamp]]></dc:creator>
		<pubDate>Thu, 28 Oct 2021 09:59:47 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Artificial Intelligence Act]]></category>
		<category><![CDATA[KI Grundverordnung]]></category>
		<category><![CDATA[KI-Systeme]]></category>
		<category><![CDATA[XAI]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=1015</guid>

					<description><![CDATA[<p>Bei mehr als jedem zweiten Unternehmen (56 Prozent) sind bereits innovative Projekte wegen direkter Vorgaben oder Unklarheiten in der Auslegung der DSGVO gescheitert, wie eine Umfrage des Digitalverbands Bitkom zeigt. Bei drei von zehn (31 Prozent) scheiterte dadurch auch die Anwendung neuer Technologien wie Künstliche Intelligenz (KI). Angesichts dieser Unsicherheiten hatten mehrere Wirtschaftsverbände einheitliche Datenschutzvorgaben&#8230;&#160;<a href="https://ai-society.org/artificial-intelligence-act-noch-eine-eu-grundverordnung/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">Artificial Intelligence Act – noch eine EU-Grundverordnung?</span></a></p>
<p>The post <a href="https://ai-society.org/artificial-intelligence-act-noch-eine-eu-grundverordnung/">Artificial Intelligence Act – noch eine EU-Grundverordnung?</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<p><strong>Bei mehr als jedem zweiten Unternehmen (56 Prozent) sind bereits innovative Projekte wegen direkter Vorgaben oder Unklarheiten in der Auslegung der DSGVO gescheitert, wie eine Umfrage des Digitalverbands Bitkom zeigt. Bei drei von zehn (31 Prozent) scheiterte dadurch auch die Anwendung neuer Technologien wie Künstliche Intelligenz (KI). Angesichts dieser Unsicherheiten hatten mehrere Wirtschaftsverbände einheitliche Datenschutzvorgaben für die Nutzung von KI gefordert.</strong></p>



<h4 class="wp-block-heading">Die EU-Grundverordnung für Künstliche Intelligenz &#8211; Artificial Intelligence Act</h4>



<p>Nun will die Europäische Union (EU) erstmalig bei dem Einsatz von KI Standards setzen, um die Datennutzung zu diesem Zweck zu erleichtern und das Vertrauen in die Technologie zu stärken. Dazu hat die EU-Kommission den ersten Entwurf des Artificial Intelligence (AI) Act veröffentlicht, der aktuell im EU-Parlament diskutiert wird und anschließend als europäisches Recht verabschiedet werden soll.</p>



<p>Zuvor ließ sich die Kommission von zahlreichen Stakeholdern aus dem öffentlichen und privaten Sektor beraten. Mit Hilfe von Fragebögen konnten Regierungen, kommerzielle und nichtkommerzielle Organisationen, Akademiker und Bürger die von ihnen gewünschten Maßnahmen äußern.</p>



<p>Daraus entstanden ist ein erster Gesetzesentwurf, der im Vergleich zu früheren Entwürfen verschärfte Sanktionen vorsieht. So wurde die Strafe für Unternehmen bei schweren Verstößen von vier Prozent auf bis zu sechs Prozent des weltweiten Umsatzes erhöht. Worauf müssen Firmen also bei der Verwendung von KI achten und was ist gemäß der neuen Verordnung verboten?</p>



<p>Als risikobasierter Ansatz legt die Verordnung eine Reihe von Risiko-Anwendungen fest, die nur unter strengen Vorgaben erlaubt sind. Unterschieden werden die Anwendungen dabei in vier Kategorien. Dabei gilt die Regel: Je höher das Risiko ist, desto strenger findet eine Regulierung statt.</p>



<p><strong>Unannehmbares Risiko:</strong>&nbsp;KI-Systeme, die eine deutliche Bedrohung für die Sicherheit, die Lebensgrundlagen und die Rechte der Menschen sind, werden verboten. Firmen und Staaten dürfen KI-Software grundsätzlich nicht einsetzen, um das Verhalten von Nutzern zu manipulieren oder um Social Scoring zu betreiben. Das Auswerten und Belohnen sozialen Verhaltens, wie es Chinas Regierung praktiziert, sollen so unterbunden werden.</p>



<p><strong>Hohes Risiko:</strong>&nbsp;Ein hohes Risiko entsteht bei KI-Systemen für private und öffentliche Dienstleistungen, welche beispielsweise die Kreditwürdigkeit von Bürgern benoten oder beim Betrieb des Strom- oder Gasnetzes eingesetzt werden. Hier geht es zudem um KI-Programme, die in sensiblen Bereichen wie Schul- oder Berufsausbildung eingesetzt werden und den Zugang einer Person zur Bildung sowie zum Berufsleben beeinträchtigen könnten. Dazu zählt zum Beispiel Software zur Auswertung von Lebensläufen für Einstellungsverfahren.</p>



<p>Bei diesen hochriskanten Fällen verlangt das Gesetz, dass die Daten, die zum Trainieren der Software verwendet werden, hochwertig sind und Gruppen nicht diskriminieren. Der Umgang mit derartigen KI-gestützten Systemen muss transparent gehalten werden. Zudem sollte die Software permanent und gründlich von Menschen überwacht und im Notfall schnell deaktiviert werden können.</p>



<p>Die zwei verbleibenden Kategorien der Anwendungen mit geringen oder minimalen Risiken definieren im Wesentlichen lediglich eine Transparenzpflicht, die darin besteht, dass Nutzern eindeutig dargestellt werden muss, dass sie mit einem KI-System interagieren.</p>



<h4 class="wp-block-heading">Durch Transparenz und klaren Gesetzen Vertrauen und Akzeptanz für KI-Systeme schaffen</h4>



<p>Befürworter der Richtlinien des Artificial Intelligence Act begrüßen diese angestrebte Minimierung der Risiken, die von hochriskanten KI-Systemen ausgehen. Denn Transparenz und klare Vorgaben sind wichtig, um Vertrauen und Akzeptanz für Künstliche Intelligenz zu schaffen. Darüber hinaus erhalten KI-Anbieter dank einheitlicher Richtlinien und höherer Rechtssicherheit Zugang zu größeren Märkten.</p>



<p>Doch diese Regulierungen stoßen nicht nur auf Zuspruch. Kritiker bemängeln, dass die EU die noch junge KI-Technologie überreguliere. Die Kommission betont aber, dass die meisten Anwendungen nicht riskant und damit vom Rechtsakt nicht betroffen seien.</p>



<p>Ähnlich wie bei der DSGVO, die seit 2018 in der EU gilt und weltweit Nachahmer fand, will die Behörde auch beim Umgang mit Künstlicher Intelligenz globale Maßstäbe setzen. Doch zunächst müssen die EU-Staaten und das Europaparlament über die Vorschläge verhandeln. Es dürfte also noch eine Weile dauern, ehe in der EU neue Regeln gelten. Achim Berg, Präsident des Branchenverbandes Bitkom mahnt jedoch zur Eile: „Unsicherheit und langwierige Abstimmungsprozesse würden dringend notwendige Investitionen verzögern oder verhindern.“</p>



<p>Die Schaffung einheitlicher Standards kann nicht nur dafür sorgen, dass die EU international wettbewerbsfähig bleibt, sondern auch den Weg für ethische KI ebnen. Die Kommission positioniert sich mit der Verordnung entschieden gegen Manipulation oder Beeinflussung von Personen durch KI. Doch wo verläuft die Grenze zwischen Manipulation und dem erlaubten Betätigungsfeld von Künstlicher Intelligenz? In einem weiteren Blog-Artikel werden wir die ethischen Gesichtspunkte der neuen Verordnung und grundsätzliche Fragen zur vertrauenswürdigen KI unter die Lupe nehmen.</p>



<p>Vertrauen ist bei Künstlicher Intelligenz wichtig für die Akzeptanz. Je komplexer die zugrunde liegende KI-Lösung ist, desto weniger ist nachvollziehbar, wie ein bestimmtes Ergebnis ermittelt wurde. Als Beispiel lassen sich Lösungsansätze mit neuronalen Netzen und einer Vielzahl von sogenannten “hidden Layers” anführen. Hier setzt die Idee der Explainable AI (XAI) an, die die Wirkungsweise einer KI erklärbar machen soll. Grundsätzlich finde ich es wichtig, dass die EU-Kommission nun einen Versuch in diese Richtung unternimmt, der aber aus meiner Sicht grundsätzlich als “erster Aufschlag” gesehen werden kann.</p>



<p>Ich sehe aber gleichermaßen auch ein Risiko darin, dass die Innovationsbereitschaft von Unternehmen durch stärkere Regulierungen gehemmt wird und die Entwicklung von KI-Lösungen teurer und komplexer wird.</p>



<h4 class="wp-block-heading">Eine nachvollziehbare Risikobewertung ist nötig</h4>



<p>Es ist mir ein besonderes Anliegen, dass Konzepte wie XAI stärkere Beachtung finden und Unternehmen bei der Umsetzung von KI-Anwendungen hinreichende Unterstützung bei der hohen Qualität der Datensätze oder einem Risikobewertungsmanagement angeboten wird. Ebenso wäre eine noch klarere Definition von “Hochrisikoanwendung” wünschenswert. Beispielsweise sehe ich es als kritisch an, dass bereits eine Anwendung zur Ermittlung der Kreditwürdigkeit so hohen Einschränkungen unterliegen soll, weil damit der “Zugang zu finanziellen Ressourcen” eingeschränkt werden kann, während ein “deep fake”, der durchaus meinungsbildend oder als Beweis missbraucht werden könnte, ein sehr geringes Risiko darstellt.</p>



<p>Ersteres ist spannend, zumal es ja die Ressourcen des jeweiligen Kreditgebers sind und dieser nach wie vor das Ausfallrisiko tragen soll. Ebenso kann ich mir sogar vorstellen, dass jemand, der über die normalen Kriterien der Kreditvergabe keinen Kredit bekommen würde, mithilfe von KI ein re-scoring erfahren könnte, da die Zahlungsbereitschaft und Zuverlässigkeit der Vergangenheit doch eine entsprechende Kreditvergabe ermöglichen würde.</p>



<p>Europa muss schauen, dass es seinen Abstand zu den USA und China, der zweifellos durch strengere Datenschutzmaßnahmen vorhanden ist, durch zusätzlich strenge Auflagen an KI-Anwendungen vergrößert. Ein Gleichgewicht zwischen Schutz vor Missbrauch und Innovationsfreiheit der Unternehmen gilt es zu definieren – keine einfache Aufgabe, diese divergierenden Ziele zu vereinen. Insgesamt sehe ich doch viele Parallelen zu der DSGVO und dem Inverkehrbringen eines Medizinproduktes gemäß dem Medizinproduktegesetz (MPG).</p>



<p></p>



<p><em>EIn Beitrag von <a href="https://ai-society.org/kontakt/" target="_blank" rel="noreferrer noopener">Prof. Dr. Marco Barenkamp</a>, Vorsitzender des wissenschaftlichen Beirats der Studiengesellschaft für Künstliche Intelligenz e.V.</em></p>



<p>Quellen:</p>



<p><a href="https://ec.europa.eu/germany/news/20210421-kuenstliche-intelligenz-eu_de" target="_blank" rel="noreferrer noopener">EU-Komission</a><br><a href="https://www.bitkom.org/Presse/Presseinformation/Jedes-2-Unternehmen-verzichtet-aus-Datenschutzgruenden-auf-Innovationen" target="_blank" rel="noreferrer noopener">Bitkom-Studie</a></p><p>The post <a href="https://ai-society.org/artificial-intelligence-act-noch-eine-eu-grundverordnung/">Artificial Intelligence Act – noch eine EU-Grundverordnung?</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Ein &#8222;Hello World&#8220; von der ASAI</title>
		<link>https://ai-society.org/ein-hello-world-von-der-asai/</link>
		
		<dc:creator><![CDATA[Marco Barenkamp]]></dc:creator>
		<pubDate>Wed, 06 Oct 2021 10:37:07 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<guid isPermaLink="false">https://ai-society.org/?p=515</guid>

					<description><![CDATA[<p>Liebe Leser:innen, die Künstliche Intelligenz ist, trotz ihres beachtlichen Alters, gerade aufgrund der aktuellen technischen Fortschritte der letzten Jahre zu einem quasi omnipräsenten Thema geworden. Die mit ihr einhergehenden Möglichkeiten und Einsatzgebiete sind nicht nur vielfältig, sondern erscheinen in vielerlei Hinsicht vielversprechend. Durch diese aktuelle Fokussierung auf die zukünftigen Anwendungsfälle der Künstlichen Intelligenz entstehen zusehend&#8230;&#160;<a href="https://ai-society.org/ein-hello-world-von-der-asai/" rel="bookmark">Mehr lesen &#187;<span class="screen-reader-text">Ein &#8222;Hello World&#8220; von der ASAI</span></a></p>
<p>The post <a href="https://ai-society.org/ein-hello-world-von-der-asai/">Ein „Hello World“ von der ASAI</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>Liebe Leser:innen,</p>



<p>die Künstliche Intelligenz ist, trotz ihres beachtlichen Alters, gerade aufgrund der aktuellen technischen Fortschritte der letzten Jahre zu einem quasi omnipräsenten Thema geworden. Die mit ihr einhergehenden Möglichkeiten und Einsatzgebiete sind nicht nur vielfältig, sondern erscheinen in vielerlei Hinsicht vielversprechend.</p>



<p>Durch diese aktuelle Fokussierung auf die zukünftigen Anwendungsfälle der Künstlichen Intelligenz entstehen zusehend gesellschaftliche, politische, ökonomische und soziale Implikationen, die nicht nur zu Euphorie, sondern auch zu Vorbehalten, Ängsten und zunehmender Unsicherheit bei der Nutzung der Künstlichen Intelligenz führen können. So wird zunehmend der Wunsch und auch die Notwendigkeit deutlich, der Künstlichen Intelligenz mehr Transparenz, mehr Fairness und auch mehr Regulierung zu widmen mit der Folge, dass neben den eher tradierten Bereichen der KI neue Schwerpunkte wie Ethical AI entstehen. Aber auch Bestrebungen, Entscheidungen von neuronalen Netzen, mindestens im Nachhinein, erklärbar zu machen (Explainable AI), rücken in die öffentliche Debatte. Man möchte nachvollziehbar und interpretierbar „verstehen“, warum eine KI eine bestimmte Entscheidung trifft, wenn sie doch so integral in die zum Teil etablierten, manuellen Entscheidungsparadigmen involviert wird und uns helfen soll, autonom Auto zu fahren oder Krankheiten vor dem Ausbruch zu erkennen.</p>



<p>Auch außerhalb dieser sicherlich sehr signifikanten Einflussbereiche des täglichen Lebens gibt es eine divergierende Sichtweise zur Nutzung der KI. Schafft die KI mehr neue Arbeitsplätze als sie durch ihre Vielzahl von Einsatzmöglichkeiten abbaut? Können bestehende Arbeitsplätze attraktiver gestaltet werden, beispielsweise durch den Wegfall repetitiver 08/15 Tätigkeiten? Wie kann die KI Nachhaltigkeit in Produktionsprozessen fördern und dafür sorgen, dass eine erhöhte Wirtschaftsleistung nicht zwangsweise einen erhöhten Ressourcenverbrauch bedingt? Unstrittig wichtige Fragen der Zukunft und die KI kann einen signifikanten Beitrag zur Lösung bieten, wird sie verantwortungsvoll und zielgerichtet eingesetzt.</p>



<p>Als Vorsitzender des wissenschaftlichen Beirats möchte ich diese und andere Fragestellungen wissenschaftlich und praxisnah behandeln und freue mich auf spannende und konstruktive Diskussionen und Beiträge. Ich hoffe, dass wir mit unserer ASAI einen bescheidenen Beitrag zu diesem Diskurs leisten können.</p>



<p>Herzlichst,</p>



<p>Ihr Marco Barenkamp</p><p>The post <a href="https://ai-society.org/ein-hello-world-von-der-asai/">Ein „Hello World“ von der ASAI</a> first appeared on <a href="https://ai-society.org">Academic Society for Artificial Intelligence</a>.</p>]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
