Logo

    Digitalgespräch

    Das Digitalgespräch ist ein Podcast von ZEVEDI, dem Zentrum verantwortungsbewusste Digitalisierung. Er wendet sich an Menschen, die aus erster Hand wissen wollen, was sich im Feld der Digitalität konkret tut und vor welchen Herausforderungen Wissenschaft und Politik dabei stehen. Im Digitalgespräch kommen Expert:innen zu Wort, die ihr Wissen zu aktuellen Arbeitsgebieten, Projekten und Forschungsperspektiven mit den Gastgeberinnen – Marlene Görger und Petra Gehring – teilen. Der Scheinwerfer fällt dabei auf komplexe Handlungsfelder und sorgt so dafür, dass sich der Nebel großer Schlagworte lichtet. Teils geht es um Themen, die unter Fachleuten gerade heiß diskutiert werden, teils ist von Dingen zu hören, die womöglich erst in Zukunft in das Sichtfeld der breiteren Öffentlichkeit gelangen. Impressum: https://zevedi.de/impressum/
    de49 Episodes

    People also ask

    What is the main theme of the podcast?
    Who are some of the popular guests the podcast?
    Were there any controversial topics discussed in the podcast?
    Were any current trending topics addressed in the podcast?
    What popular books were mentioned in the podcast?

    Episodes (49)

    Der AI Act der EU: Wie er zustande kam und wie er KI reguliert

    Der AI Act der EU: Wie er zustande kam und wie er KI reguliert
    Mit ihrem AI Act hat die EU hat den ersten umfassenden regulatorischen Rahmen für Systeme „Künstlicher Intelligenz“ auf den Weg gebracht. Ein ehrgeiziges, herausforderndes und drängendes Vorhaben: Die rasante, technische Entwicklung findet global statt, vor allem außerhalb von Europa. KI wird bereits in allen Lebensbereichen eingesetzt, mit unbestreitbaren ökonomischen Vorteilen, aber auch offensichtlichen Risiken für die liberale Demokratie und ihre Werte. Welche Technologien als „Künstliche Intelligenz“ gelten, ist dabei nicht klar umrissen. Vielmehr versammeln sich unter dem unscharfen Buzzword alle möglichen IT- und Robotik-Systeme, deren Leistung über die herkömmlicher Automatisierung hinausgeht. Ein Gesetzesrahmen, wie er jetzt in Europa gelten soll, muss klug angelegt und flexibel sein, um dieser komplexen Lage gerecht zu werden. Ist das mit dem großen Wurf der europäischen KI-Verordnung gelungen? Domenik Wendt ist Professor für Bürgerliches Recht, Europäisches Wirtschaftsrecht und Europarecht an der Frankfurt University of Applied Sciences und Experte für Recht der KI. Die Entstehung des AI Acts hat er von Anfang an eng verfolgt und dabei sowohl eine wissenschaftliche als auch eine praxisorientierte Perspektive eingenommen. Im Digitalgespräch beschreibt er den Prozess, den die Verordnung durchlaufen hat: Vom Kontext ihrer Entstehung und der zugrundeliegenden Idee und Zielsetzung über die heißen Diskussionen zwischen den beteiligten Akteuren mit ihren verschiedenen Interessen und politischen Grundhaltungen bis hin zu den Inhalten des finalen Entwurfs, der nun verabschiedet werden soll. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Wendt, wie der AI Act international aufgefasst und bewertet wird, ob Kritiker:innen zurecht Schwachstellen sehen, und welche Arbeit nun auf Unternehmen, Jurist:innen und Wissenschaftler:innen zukommt, um diesen abstrakten Rechtsrahmen auch in die Wirklichkeit umzusetzen. Link zum Originalbeitrag: https://zevedi.de/digitalgespraech-048-domenik-wendt Weitere Informationen: Zur Pressemitteilung „Rahmen für Künstliche Intelligenz in der EU steht: KI-Verordnung einstimmig gebilligt“ des Bundesministeriums für Justiz vom 2. Februar 2024: https://www.bmj.de/SharedDocs/Pressemitteilungen/DE/2024/0202_KI-VO.html?cms_mtm_campaign=linksFromNewsletter Webseite des Research Lab for Law and applied Technologies: https://www.frankfurt-university.de/de/hochschule/fachbereich-3-wirtschaft-und-recht/forschung-und-transfer/forschungslabore/rellate/

    KI und Haftung: Wer steht ein für die Fehler Künstlicher Intelligenz?

    KI und Haftung: Wer steht ein für die Fehler Künstlicher Intelligenz?
    Risiken, die vom KI-Einsatz ausgehen, werden breit diskutiert. Beispiele reichen von möglichen Fehldiagnosen in der medizinischen Behandlung über Diskriminierung bei der Jobsuche bis hin zu Gefahren für demokratische Systeme oder Verletzung der Menschenwürde. Vor allem existenzielle Bedrohungen, die insbesondere von generativer KI ausgehen sollen und die ihre Hersteller selbst nicht müde werden, zu betonen, sorgen für hitzige Debatten. KI-Systeme entstehen und agieren aber nicht von selbst: An ihrer Entwicklung, ihrer Verbreitung und ihrem Einsatz sind zumindest im Moment immer Menschen beteiligt, und Menschen tragen nach wie vor Verantwortung dafür, wie die Systeme aufgebaut sind, was sie tun und was mit den Ergebnissen geschieht. Aber haften sie auch, wenn Fehler passieren? Wer verantwortlich gemacht wird, wenn durch ein KI-System ein konkreter Schaden entsteht, ist nicht leicht zu entscheiden und unsere Rechtslage hat auf diese Frage noch keine klaren Antworten. Das soll sich bald ändern: Die EU ist gerade dabei, mit dem AI Act eine Produkthaftung für KI zu etablieren. Was sind Punkte, mit denen sich Anwält:innen und Gesetzgeber:innen bei Haftungsfragen des KI-Einsatzes auseinandersetzen müssen? Und wie gut knüpft entstehendes KI-Recht an unsere bestehende Rechtsauffassung an? Carsten Gerner-Beuerle ist Professor of Commercial Law am University College London. Der Rechts- und Wirtschaftswissenschaftler ist Experte für internationales Gesellschafts-, Privat- und Kapitalmarktrecht und hat Regulierungsvorhaben der EU Kommission und des EU Parlaments unterstützt. Im Digitalgespräch schildert er die unklare Haftungslage, in der KI zum Einsatz kommt und wie sie sich auf die Praxis auswirkt, erklärt die rechtlichen Hintergründe für diese komplexe Situation, beschreibt, wie unterschiedliche Rechtssysteme mit Risiken durch KI-Einsatz umgehen und zeigt die Strategie auf, die die EU mit dem AI Act verfolgt. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Gerner-Beuerle, worin die Eigenschaften von KI bestehen, die sie von „gewöhnlichen“ Produkten unterscheiden, worin typische Risiken beim Einsatz von KI-Systemen bestehen und wie weit das Konzept der Haftung auch als Instrument der Regulierung funktionieren könnte. Link zum Originalbeitrag: https://zevedi.de/digitalgespraech-047-carsten-gerner-beuerle

    Arena of IoT: ein Fußballstadion als digitales Reallabor

    Arena of IoT: ein Fußballstadion als digitales Reallabor
    Das sogenannte „Internet der Dinge“ sorgt dafür, dass in unserer Umgebung digitale Prozesse wie von selbst ablaufen. Vernetzte Geräte lösen reale Ereignisse aus, sammeln ganz unterschiedliche Daten, und kombiniert mit Sensoren, Mikrofon- und Kameratechnik stellen Sie Informationen in ungeahnter Menge bereit. Diese Vernetzung kann unsere Arbeit erleichtern, in jedem Fall verändern und auch ganz neue alltägliche Aufgaben entstehen lassen, schafft neue Möglichkeiten, stellt dabei aber auch eigene Bedingungen für unser Leben her: Sie transformiert Arbeitsplätze und Freizeitangebote, verändert unsere Mobilität, wie wir kommunizieren und – mal mehr, mal weniger subtil – worauf wir unsere Aufmerksamkeit richten. Hier Neuerungen tatsächlich umzusetzen ist eine spannende und komplexe Aufgabe für die Praxis. Welche Möglichkeiten haben wir, Dinge auszuprobieren und auszuhandeln, und dabei gleichzeitig „echte“, einsatzreife Technologien zum Einsatz zu bringen? Das Stadion des Fußballvereins Eintracht Frankfurt soll seit einiger Zeit für das Rhein-Main-Gebiet als ein solches Experimentierfeld dienen. Eine große Sportstätte und das Management von Fußballereignissen als Labor der Digitalisierung – mit Respekt vor den Traditionen und Werten des Vereins und den Ansprüchen seiner Mitglieder und Fans. Wie das gelingen soll und welche Ideen, Projekte und Ziele dahinterstehen, ist Thema dieses Digitalgesprächs. Dr. Oliver Bäcker leitet das Digitalzentrum „Arena of IoT“ bei der EintrachtTech, der Digitaltochter des Fußballvereins Eintracht Frankfurt. Im Digitalgespräch gibt der Experte für Innovations- und Technologiemanagement Einblicke in konkrete Projekte und Entwicklungen, die im Stadion und darum herum entstehen. Bäcker beschreibt, welche Hintergründe der besondere Digital-Schwerpunkt der Eintracht hat, wie Werte und Interessen des Vereins in die Ausgestaltung konkreter Innovationen einfließen und wie Mitglieder und Fans dabei einbezogen werden. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Bäcker, welche Projekte besonders viel Aufmerksamkeit von Politik und Öffentlichkeit erfahren, ob die sportliche Konkurrenz zwischen Fußballclubs sich auch auf digitale Innovationen ausweitet – und welche Bedeutung das Analoge weiterhin hat und auch behält. Link zur Webseite des Digitalzentrums Arena of IoT der EintrachtTech: https://klub.eintracht.de/eintrachttech/digitalzentrum-arena-of-iot

    Digitale Forensik

    Digitale Forensik
    Daten auf einer vermeintlich zerstörten Festplatte auslesen, den Bordcomputer eines verunfallten PKW ausbauen, versteckte Dateien auf einem Smartphone finden – in der digitalen Gesellschaft brauchen Ermittler:innen zur Aufklärung von Straftaten oft Unterstützung von IT-Expert:innen. Für diese „Digitale Forensik“ gibt es spezielle Ausbildungen, die technisches Knowhow mit juristischen Kenntnissen vereinen. Doch verglichen mit den etablierten Praktiken besonnener Sicherung und kluger Auswertung von Spuren, für die die klassische Forensik auf der Erfahrung ganzer Generationen von Ermittler:innen und Wissenschaftler:innen aufbaut, ist die forensische Informatik eine sehr junge Disziplin, die sehr anpassungsfähig sein muss: Innovationen und neue Systeme bringen permanent neue Klassen digitaler Spuren mit sich – aber auch Herausforderungen für Forschung und Praxis der Digitalen Forensik, denn Forensiker:innen und auch Polizist:innen müssen für die Digitalität nachhaltig geschult werden. Felix Freiling ist Professor für IT-Sicherheitsinfrastrukturen an der Friedrich-Alexander-Universität Erlangen-Nürnberg und Mitglied im Direktorium des Bayerischen Forschungsinstituts für Digitale Transformation (bidt). Im Digitalgespräch erklärt der gefragte Experte, wie man richtig mit digitalen Asservaten umgeht und was man in der Ausbildung für Digitale Forensik noch lernt, erzählt von Beispielen aus der Praxis und macht deutlich, wo in unserem Alltag überall Daten anfallen, die im Falle eines Falls ausgewertet werden könnten. Er spricht darüber, welche Rolle Fälschbarkeit digitaler Spuren in der Realität spielt, ob KI bei den Ermittlungen unterstützt, wie gut Kriminelle ihre digitalen Spuren verwischen und wo das Wissen der forensischen Informatik noch nützlich ist. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Freiling, was die Allgegenwart digitaler Spuren für die Privatsphäre heißt, wie verantwortungsvolle Digitalisierung im Kleinen wie im Großen Kriminalität mitdenken kann – und was das digitale Äquivalent einer DNA-Spur sein könnte.

    Von Grundsatzdebatte bis Wahlkampf: Digital Kommunizieren in politischen Parteien

    Von Grundsatzdebatte bis Wahlkampf: Digital Kommunizieren in politischen Parteien
    Unsere Alltagskommunikation hat sich während der Corona-Pandemie radikal digitalisiert. Natürlich mussten sich darum auch politische Parteien und ihre Mitglieder neu organisieren: Ganze Parteitage fanden zeitweise virtuell statt, auch Debatten und Entscheidungsfindungen mussten mit digitalen Tools gelingen, die nun beibehalten werden und den persönlichen Austausch weiterhin ergänzen. Aber auch jenseits der Ausnahmesituation einer Pandemie experimentieren Parteien damit, im Rahmen von Modernisierungsmaßnahmen neue Möglichkeiten der Zusammenarbeit zu erschließen. Man versucht auf Sozialen Medien Wählerinnen und Wähler zu erreichen, vor allem aber auch das Innenleben der Partei durch Digitalität zu verbessern. Wie die politischen Parteien in Deutschland ihre eigene digitale Transformation angehen, welche Schwerpunkte sie dabei setzen und was ihre jeweiligen Voraussetzungen sind, das unterscheidet sich freilich stark: Mitgliederzahlen, Budget und auch unterschiedliche politische Leitbilder spielen dabei eine Rolle. Isabelle Borucki ist Professorin für politikwissenschaftliche Methoden und Demokratie im digitalen Wandel an der Philipps-Universität Marburg und erforscht insbesondere die digitale Transformation politischer Organisationen. Im Digitalgespräch beschreibt die Expertin ihre Beobachtungen aus Studien und Befragungen, die Einblicke in aktuelle Digitalisierungsprozesse politischer Parteien geben. Sie erklärt Gemeinsamkeiten und Unterschiede zwischen den Parteien und ordnet sie mit Blick auf deren jeweilige Eigenheiten und Rahmenbedingungen ein. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Borucki, wie Digitalisierung die Teilhabe an parteipolitischer Arbeit erleichtern aber auch erschweren kann, wie Mitglieder und etablierte Strukturen auf Digitalisierungsprozesse reagieren, vor welche Herausforderungen Social Media die PR-Abteilungen von Parteien stellt – und wie sich Parteien bisher zu den technischen Möglichkeiten für digitalen Wahlkampf verhalten.

    Digitalität und der demokratische Auftrag des öffentlich-rechtlichen Rundfunks

    Digitalität und der demokratische Auftrag des öffentlich-rechtlichen Rundfunks
    Fernsehen und Radio haben im Zeitalter des Internets ihre Monopolstellung als Massenmedien verloren. Ihre wichtige Rolle für die Demokratie und ihre verfassungsmäßigen Aufgaben haben die öffentlich-rechtlichen Sendeanstalten dabei aber behalten: Hauptsächlich von den Rundfunkgebühren der Bürger:innen finanziert, sollen sie mit einem hochwertigen und vielfältigen Programm informieren, unterhalten, Meinungsvielfalt und unterschiedliche Lebenswirklichkeiten abbilden und für möglichst viele Menschen relevant sein. Längst finden sie darum auch in den Sozialen Medien und auf Online-Plattformen statt, mit aufwendig an spezielle Zielgruppen und deren Nutzungsgewohnheiten angepassten Inhalten. Die öffentliche Funktion erschöpft sich aber nicht in Programmgestaltung, Relevanz, Aktualität und Reichweite: Auch die Archivierung von Gesendetem als historischer Dokumente des Zeitgeschehens gehört zu dieser Verantwortung, genauso wie Bereitstellung und Instandhaltung von Medien-Infrastruktur. Letztere wird ja nicht nur von den Sendeanstalten selbst genutzt, sondern auch von privaten Medienschaffenden – und hat eine zentrale Bedeutung für den Katastrophenschutz. Dass Internet und Digitalisierung hier an vielen Stellen für Transformationsdruck sorgen, ist klar. Was gelingt dabei gut, was ist noch zu tun – und was steht auf dem Spiel? Florian Hager ist Intendant des Hessischen Rundfunks, einer der neun Landesrundfunkanstalten der ARD. Im Digitalgespräch schildert er, vor welchen Herausforderungen der Sender steht, welche drängenden Fragen und Baustellen ihn beschäftigen, und wie eine zeitgemäße Programmgestaltung gelingen kann. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Hager, was der Auftrag der Öffentlich-Rechtlichen angesichts der Digitalität bedeutet, wo Weichenstellungen auch den Einsatz von Politik und Gesellschaft fordern – und welche Rolle Sendemaste und UKW-Radios im Jahr 2023 noch spielen.

    Sensible Daten für die Wissenschaft: Weshalb ein Forschungsdatengesetz?

    Sensible Daten für die Wissenschaft: Weshalb ein Forschungsdatengesetz?
    Behördendaten, also Daten, die bei Verwaltungsakten anfallen oder von staatlichen Stellen für genau definierte Zwecke gezielt erhoben werden, stehen mit guten Gründen unter besonderem Schutz: Personenbezogene Daten verraten viel über die Menschen, denen sie zuzuordnen wären und aus Daten zu Unternehmen lassen sich unter Umständen deren Geschäftsgeheimnisse ableiten. Der Wirtschafts- und Sozialforschung komme es nicht auf den Einzelfall am. Sie sucht nach großen gesellschaftlichen oder wirtschaftlichen Zusammenhängen und betrachtet Behördendaten daher in der Gesamtheit. Personen und Unternehmen werden dabei zu einem anonymen Datenpunkt in der Statistik. Die Ergebnisse dieser Forschung kann politische Entscheidungen informieren, öffentliche Debatten mit belegbaren Zahlen versachlichen und verborgene Entwicklungen sichtbar machen – wenn die Wissenschaftler:innen Zugang zu diesen Daten erhalten und die Erlaubnis, sie mit anderen Daten zu verknüpfen. Hier bietet die aktuelle Gesetzeslage kein einheitliches Bild. Auch praktische Hürden im Datenzugang werden von der Vertreter:innen der unabhängigen Forschung bemängelt. Hier findet ein Aushandlungsprozess statt zwischen denen, die Daten produzieren und teilen könnten, denen die auf diesen Daten forschen wollen und den Datenschützer:innen, die sicherstellen müssen, dass Informationen über Individuen und bei den Behörden auch weiterhin sicher sind. Prof. Stefan Bender leitet das Forschungsdaten- und Servicezentrum der Deutschen Bundesbank, die er auch im Rat für Sozial- und Wirtschaftsdaten (RatSWD) vertritt. Der Wirtschaftswissenschaftler ist Experte für Datenzugang, Big Data, Verknüpfung von Daten und Datenqualität. Im Digitalgespräch erklärt er, was genau Behördendaten für die Forschung besonders interessant macht, wie Datenzugang heute geregelt ist und an welchen Stellen er verbessert werden müsste. Bender diskutiert mit den Gastgeberinnen Marlene Görger und Petra Gehring, welche Perspektiven in der Diskussion um Datenzugang für die Forschung aufeinandertreffen, wo sich spannende neue Fragestellungen auftun – und was ein gut gemachtes Forschungsdatengesetz verbessern kann.

    Modellieren, Simulieren, Optimieren – die Digitalisierung des Energienetzes

    Modellieren, Simulieren, Optimieren – die Digitalisierung des Energienetzes
    Unser Alltag baut auf der Gewissheit auf, dass jederzeit Strom aus den Steckdosen kommt. Schwankungen oder gar Ausfälle sind nicht vorgesehen. Wenn wir uns nicht gerade mit Katastrophenschutz befassen oder Endzeitszenarien ausmalen, denken wir selten darüber nach, wie verwundbar uns diese Abhängigkeit von verlässlicher Energieversorgung macht. Insbesondere für Gasnetze gilt: sie sind nicht nur riesig und komplex, sondern verändern sich und bedürfen permanenter Nachsteuerung und Stabilisierung. Das Energienetz mit Blick auf neue Energieträger und sich wandelnde Prioritäten weiterzuentwickeln und zu optimieren, seine Funktion zu überwachen und es resilient zu machen gegen eine Vielzahl von Risiken, ist eine hochkomplexe Aufgabe: Wir wollen nicht nur verstehen, wie verschiedene Energieträger im Netz zusammenwirken, sondern auch belastbare Vorhersagen machen und sofort reagieren können, wenn etwas Unerwartetes passiert. Dazu sind je nach Fragestellung physikalische Modelle, mathematische Methoden und Datenanalyse – auch in Echtzeit – nötig. In Simulationen und Berechnungen fließen Entwicklungen auf dem Weltmarkt, das Wetter und der Zustand der Leitungen genauso ein, wie die Qualität von Energieträgern oder der Verbrauch von Industrie und Privathaushalten. Wie macht man dieses vieldimensionale System beherrschbar? Prof. Dr. Alexander Martin ist Mathematiker. Er leitet das ADA Lovelace Center for Analytics, Data and Applications am Fraunhofer-Institut für Integrierte Schaltungen IIS und ist Gründungsvizepräsident der Technischen Universität Nürnberg. In seiner Arbeit befasst er sich mit der Modellierung und Simulation bei Optimierungsfragen und bringt „Künstliche Intelligenz“ in die Anwendung. Der Experte erklärt im Digitalgespräch, wie unser Energienetz aufgebaut ist und welche Überlegungen den Modellen und Methoden zugrunde liegen, mit denen er und seine Kolleg:innen arbeiten. Er beschreibt, welchen Nutzen Digitalisierung dabei bringt, welche Daten benötigt werden und an welchen Stellen KI einen Beitrag leisten kann. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Martin, welche Zielsetzungen und politischen Debatten Einfluss auf die Entwicklung des Gasnetzes nehmen – und mit welchen ökonomischen und ökologischen Kosten das Sammeln, Vorhalten und Nutzen von Daten verbunden ist.

    Digitalisierte Landwirtschaft – das Beispiel Obstbau

    Digitalisierte Landwirtschaft – das Beispiel Obstbau
    Die Landwirtschaft prägt den ländlichen Raum wie kaum ein anderer Industriezweig, und sie sichert unsere Ernährung. So liegt es in unser aller Interesse, dass Landwirt:innen und ihre Mitarbeiter:innen ihrer Arbeit in guter Weise nachkommen können. Was das im Detail heißt, ist freilich umstritten. Immer wieder stehen Landwirt:innen pauschal in der Kritik, weil die Jobs in ihren Betrieben unbeliebt sind und weil Lebensmittelproduktion, Lagerung und Vertrieb mit Umwelt- und Klimabelastungen einhergeht. Natürlich wünschen wir uns eine ökologisch und sozial nachhaltige Ernährung für alle Menschen – und eine gut funktionierende Landwirtschaft auch. Im Konflikt zwischen Klima- und Umweltzielen mit unserem Anspruch an sozial gerechte Produktion und Verfügbarkeit verspricht die Digitalisierung Entspannung: Effizienter und vernetzter Landbau sind genauso wie schneller Zugang zu Wissen und digitalen Planungshilfen schon jetzt in vielen Betrieben angekommen. Die Überzeugung der Beteiligten und auch der Politik lautet: Landwirtschaft muss digitaler werden, um nachhaltiger zu werden. Aber reicht Digitalisierung allein, um bestehende Probleme zu lösen? Dr. Christine Rösch leitet die Forschungsgruppe „Nachhaltige Bioökononomie“ am Institut für Technikfolgenabschätzung und Systemanalyse, dem ITAS am Karlsruher Institut für Technologie. Die Agrarbiologin und Expertin für Transformationsprozesse im ländlichen Raum erklärt im Digitalgespräch, welche Zielsetzungen und Notwendigkeiten die digitale Transformation der Landwirtschaft bestimmen, und warum gerade der Obstbau ein gutes Beispiel ist, um sich diese Prozesse klarzumachen. Sie schildert, welche Technologien schon jetzt breit zum Einsatz kommen, in welche Innovationen viele Hoffnungen gesetzt werden und wie gut die Umsetzung von Modernisierungsmaßnahmen gelingt. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Rösch, welche Chancen für eine nachhaltigere Landwirtschaft die Digitalisierung bereithält, wie ökologische und konventionelle Betriebe sie jeweils nutzen, welche weitreichenden Konsequenzen und Risiken sich dabei andeuten – und ob es in der digitalen Transformation des Berufsbilds „Landwirt:in“ auch einen Generationenkonflikt zu bewältigen gibt.

    Lehren und Lernen nach der Pandemie: Der schwierige Umbau des digitalen Schulunterrichts

    Lehren und Lernen nach der Pandemie: Der schwierige Umbau des digitalen Schulunterrichts
    Die Digitalisierung in Einrichtungen des öffentlichen Sektors erfolgt unter anderen Voraussetzungen als digitale Neuerungen in der privaten Wirtschaft oder zuhause. Die Lücke zwischen dem, was technisch ganz offensichtlich längst möglich ist, und dem, was beispielsweise in öffentlichen Schulen umgesetzt wird, ist groß. Groß ist auch der Unmut, den manche Menschen darüber empfinden. Und wenn es um die Ausbildung und Zukunftschancen von Kindern geht, scheint eine Verbesserung des Status quo besonders dringlich. Die Pandemie hat gezeigt, dass unter dem Druck der Schulschließungen mit Ausnahmen und Sonderregelungen plötzlich sehr vieles möglich war, wo sich vorher jahrzehntelang nichts bewegte. Allerdings: Datenschutz und Datensouveränität sind nach wie vor wichtige Werte. Unsere Gesellschaft kann und sollte diese nicht einfach aufgeben – auch, wenn sich der Unterricht mit Microsoft Teams, WhatsApp, Zoom und Co. auf den ersten Blick besser digital aufwerten lässt, als etwa mit datenschutzkonformen Open Source-Lösungen und eigenen Rechenzentren. Wie kommen wir aus diesem Dilemma heraus? Jan Marco Leimeister ist Professor für Wirtschaftsinformatik an den Universitäten Kassel und St. Gallen. Der Experte für Change Management und Innovationsprozesse hat neben der Arbeitswelt und Erwachsenenbildung auch die hessischen Schulen im Blick. Im Digitalgespräch berichtet er von Erkenntnissen aus seinen Beobachtungen – als Wissenschaftler, der Strukturen und Konfliktlinien identifiziert, und auch als Vater, der mit seinen Kindern in Singapur ein hohes Maß an Digitalisierung aller Lebensbereiche erlebt hat. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert er, wie Digitalisierung den Unterricht konkret aufwerten kann, wo die Verantwortung für diese Transformationsprozesse liegt – und ob uns Singapur bei der Digitalisierung in Schulen als Vorbild dienen kann.

    Digitale Kunstwerke bewahren: eine Herausforderung für Museen

    Digitale Kunstwerke bewahren: eine Herausforderung für Museen
    Was ist uns unser kulturelles Erbe wert, das in der Frühzeit der Digitaltechnik, also in digitaler Form entstanden ist? Wenn man sich die Ressourcen anschaut, die die Gesellschaft für die Bewahrung digitaler Kunst bereitstellt, könnte man meinen: Nicht viel. Zwar begann das Digitalzeitalter mit Digitalkunst. Und unlängst hat NFT-Kunst mit Rekordpreisen den Markt revolutioniert, die Kunstszene düpiert und in Aufruhr versetzt. Das alles heißt aber nicht, dass die Öffentlichkeit den Wert digitaler Kulturgüter erkennt. Zumindest wird zu wenig getan, um seinen Verlust zu verhindern: Digitale Kunst fachgerecht zu bewahren, zu restaurieren und zu archivieren, wie wir es selbstverständlich mit analogen Kulturgütern tun – dazu sind nur eine Hand voll Menschen überhaupt in der Lage. Und für etliche Werke, die heute im digitalen Raum entstehen und zugänglich sind, fehlen Strategien für Restauration und Archivierung bisher völlig. Hier hat die Kunst ähnliche Probleme, wie sie Wissenschaft und Verwaltung beklagen: Das Analoge ist haltbar, das Digitale – noch – fragil. Margit Rosen leitet die Abteilung Wissen – Sammlung, Archive & Forschung am ZKM | Zentrum für Kunst und Medien Karlsruhe. Die Expertin erklärt im Digitalgespräch die Herausforderung, vor denen Museen stehen, die digitale Bestände halten und für sie verantwortlich sind. Die schildert Bewegungen in der Kunstszene, beschreibt Debatten, Diskursräume und Akteure und zeigt auf, wie dringend sich die Gesellschaft der Vergänglichkeit ihrer digitalen Kultur bewusst werden muss. Mit den Gastgeberinnen Petra Gehring und Marlene Görger diskutiert Rosen, welche konkreten Fragen sich dabei stellen, wie relevant der Einbruch der Blockchain-Technologie in die Kunst- und Museumsszene dabei ist – und inwiefern Soziale Medien auch Kunst-Medien sind.

    Tageszeitungen: Wie verändern sie sich im digitalen Wandel?

    Tageszeitungen: Wie verändern sie sich im digitalen Wandel?
    Eine gute gedruckte Tageszeitung konfrontiert ihre Leser:innen mit einem absichtsvoll und sorgfältig zusammengestellten Informationsangebot. Wer sich darauf einlässt, stößt auf überraschende Perspektiven, neue Themengebiete, zuvor unbekannte Debatten. Hinter der Zeitung stehen Herausgeber und eine Redaktion. Sie bietet das an, was zu wissen und zu diskutieren aktuell wichtig ist. Natürlich funktioniert das auch im Digitalen so: Wo nicht Algorithmen und personalisierten News-Feeds die Artikel zusammenstellen, liefern auch digitale Versionen von „Zeitung“ – wie ePaper oder Online-Portale – weitgehend kuratierte oder recherchierte Nachrichten. Hinzu kommen Analysen und Kommentare. Anders als die gedruckte Zeitung, die es in ihrer Machart und Handhabung leicht macht, sich konzentriert in Artikel und Interviews zu vertiefen, konkurrieren digitale Nachrichten allerdings schnell mit anderen Informationen um die Aufmerksamkeit des Menschen vor dem Bildschirm. Und digitaler Content scheint oft kostenlos zu sein – wir bezahlen „nur“ mit den beim Klicken und Lesen entstehenden Daten. Nicht mehr alle Menschen sehen es daher ein, für digitale Zeitungsinhalte zu bezahlen – etwa in Form eines Abos oder für einzelne Artikel. Gratis-Content im Netz entwertet aber journalistische Arbeit. Zeitungshäuser spüren den Druck, der durch die wachsende Konkurrenz mit anderen Medien entsteht. Sie müssen kreativ werden, um im Kampf um Aufmerksamkeit und Interesse – gemessen in Klicks und Likes – zu bestehen. Und spätestens dann, wenn Nutzer:innen gar nicht mehr gezielt bestimmte Angebote von Zeitungen und Medienhäusern aufsuchen, sondern ihnen lediglich einzelne Beiträge in Newsfeeds oder Posts begegnen, müssen seriöse Themensetzung und journalistische Standards mit wirtschaftlichen Überlegungen zur Maximierung von Reichweite zusammengebracht werden. Hier bewegt man sich mitunter auf einem schmalen Grat. Carsten Knop ist Mitherausgeber der Frankfurter Allgemeinen Zeitung und verantwortet die digitalen Angebote des Blattes. Als Journalist kommentiert er seit Jahren die Entwicklungen im Bereich digitaler Technologien und Transformationen und nimmt dabei auch internationale Perspektiven ein. Im Digitalgespräch beschreibt der Experte am Beispiel der FAZ das Verhältnis von Zeitung und Digitalisierung. Er erklärt, wie Zeitungsredaktionen auf Herausforderungen des digitalen Informations- und Unterhaltungsmarktes reagieren, welche neuen Formate und Arbeitsweisen entstehen und wie seriöser Journalismus Chancen neuer digitaler Technologien sinnvoll nutzen kann. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Knop, welche Relevanz Digitalisierungsthemen in der Berichterstattung haben (sollten), wie sich der Austausch zwischen Journalist:innen und Leser:innen verändert hat und welche Rolle Tageszeitungen wie der FAZ im Ringen um demokratische Gestaltung von Digitalität zukommt.
    Digitalgespräch
    deJune 06, 2023

    Wie es Computern gelingt, eigenständig mit Sprache umzugehen

    Wie es Computern gelingt, eigenständig mit Sprache umzugehen
    Seit mächtige Sprachmodelle der breiten Weltöffentlichkeit zur Verfügung stehen, ist der Erfolg der Computerlinguistik offenkundig: Man hat dort Rechnerarchitekturen entwickelt, die in der Lage sind, intuitive menschliche Sprache zu prozessieren. Das Verhalten, das diese Systeme zeigen, ist im Detail kaum noch nachvollziehbar, umso beeindruckender sind die Ergebnisse, die sie liefern: Assistenzsysteme, die mit diesen Sprachmodellen ausgerüstet sind, lassen sich steuern und generieren Output, als würden sie Sprache tatsächlich selbst beherrschen – und ihre Anwendungsmöglichkeiten gehen weit über die aufsehenerregenden Chat-Bots hinaus, die die öffentlichen Debatten bestimmen. GPT und verwandte Systeme sind allerdings keineswegs plötzlich entstanden. Sie sind das Ergebnis eines beharrlichen Lernprozesses: Erste Versuche, Sprache in Algorithmen abzubilden, scheiterten in der Mitte des zwanzigsten Jahrhunderts nicht nur an fehlenden Ressourcen oder weil entscheidende maschinelle Lernverfahren noch nicht entwickelt waren, sondern auch deshalb, weil die Theorien darüber, wie sich die Bedeutungsebene menschlicher Sprache abstrakt fassen und systematisieren lässt, unzureichend waren. Was also machen Entwickler:innen moderner Systeme anders als die Pionier:innen der Computerlinguistik? Chris Biemann ist Professor für Sprachtechnologie an der Universität Hamburg, wo er den Fachbereich Language Technology und das House of Computing and Data Science leitet. Im Digitalgespräch gibt der Experte tiefe Einblicke in die Entstehung und Funktionsweise moderner Sprachmodelle und erklärt sprachwissenschaftliche Theorien, die dabei zum Tragen kommen. Er macht verständlich, warum die Systeme so beeindruckende Ergebnisse liefern und beschreibt, wozu sie in der Wissenschaft eingesetzt werden können. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Biemann, welche Ressourcen in die Entwicklung solcher Systeme fließen, was passiert, wenn man Sprachmodelle auf dem ganzen Internet trainiert – und welche Aufgaben die Computerlinguistik jetzt, wo sie ihr großes Ziel erreicht zu haben scheint, noch vor sich hat.

    Datenvielfalt handhabbar machen – das Beispiel Biodiversitätsforschung

    Datenvielfalt handhabbar machen – das Beispiel Biodiversitätsforschung
    Die Forschung zur Artenvielfalt von Pflanzen und Tieren steht vor einer technischen Herausforderung: Die Datensammlungen, die bei der Beobachtung der Natur und in den Umwelt- oder Biowissenschaften entstehen, sind riesig und wachsen stetig an. Datensorten und Datensätze unterscheiden sich jedoch stark, je nach Forschungsfeld und praktischen Begebenheiten. Für die Biodiversitätsforschung muss das heterogene Wissen aber systematisch zusammengebracht und auch geteilt werden – für ökologische Problemstellungen benötigt man die Zusammenschau. Konkret kann man die Herausforderung auch so beschreiben: Wie gewinnt man möglichst viele Daten aus unzähligen Excel-Tabellen, handschriftlichen Dokumentationen, Satellitenbildern, lebenden Organismen oder getrockneten Pflanzenteilen – und zwar vergleichbar, einheitlich formatiert und maschinenlesbar – sodass Forscher:innen über ein Online-Portal komfortabel darauf zugreifen können? Eins ist klar: Hier stellt sich eine Mammutaufgabe. Und neben den technischen Aufgaben stellen sich datenrechtliche und wissenschaftspolitische Probleme. Dr. Barbara Ebert ist Geschäftsführerin der Gesellschaft für Biologische Daten e. V. und koordiniert im Projekt „NFDI4Biodiversity“ der Nationalen Forschungsdateninfrastruktur (NFDI) den Aufbau einer Plattform für Forschungsdaten zur Biodiversitätsforschung. Im Digitalgespräch erklärt die Biologin und Expertin für Datenmanagement, welche Anforderungen ein solches Projekt an alle Beteiligten stellt und welche Hürden dabei zu überwinden sind. Sie beschreibt, aus welchen Quellen Daten zusammenkommen, wozu sie erhoben und wie sie für weitere Forschung nutzbar gemacht werden. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Ebert, wo Aushandlungsprozesse stattfinden, welche Bedarfe im Vordergrund stehen und wessen Interessen berücksichtigt werden müssen.

    Maschinelles Lernen im Umweltmonitoring

    Maschinelles Lernen im Umweltmonitoring
    Der rasant voranschreitende Klimawandel hat Folgen für Ökosysteme und Landschaften. Diese Veränderungen zu beobachten und zu verstehen, ist eine wesentliche Voraussetzung, um durch kluges Handeln Schäden gering zu halten. Für ein Umweltmonitoring, das möglichst umfassende belastbare Daten über den Zustand von Wäldern, Böden und Mooren liefern soll, wird kooperativ geforscht. Die Umweltinformatik spielt hier eine zentrale Rolle: Sie verbindet Wissen über ökologische Zusammenhänge mit den Möglichkeiten moderner, computergestützter Verfahren und stellt dabei Methoden und Technologien bereit, die es ermöglichen, Beobachtungen an einzelnen Orten auf größere Skalen auszuweiten. Mit maschinellen Lernverfahren können Daten, die Förster:innen, Landschaftspfleger:innen und Naturliebhaber:innen im Feld sichtbar und messbar vorfinden, mit Satelliten- und Drohnenaufnahmen größerer räumlicher Gebiete in Korrelation gebracht werden. Im Grunde können so räumliche und zeitliche Lücken in der Datenlage geschlossen werden – wenn die mathematischen Modelle dahinter verstanden sind und die Ausgangsdaten, mit denen die „Künstliche Intelligenz“ lernt, auch wirklich zu der ökologischen Fragestellung passt. Hanna Meyer ist Professorin für Fernerkundung und Räumliche Modellierung am Institut für Landschaftsökologie der Universität Münster. Im Digitalgespräch erklärt die Expertin, wie Umweltinformatiker:innen arbeiten und was typische Aufgaben und Fragestellungen sind. Sie beschreibt, welche Daten nötig sind, um Satelliten- und Drohnenbilder mit realen ökologischen Systemen in Korrelation zu bringen und wie Maschinelles Lernen dabei hilft, Lücken in der Datenlage zu schließen. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Meyer, wo die Grenzen dieser mathematischen Ausweitung von Felddaten liegen – und welche Gefahren bestehen, wenn den Modellen allzu blind vertraut wird.

    Was können kleine und große Drohnen? Zur Automatisierung von Fluggeräten

    Was können kleine und große Drohnen? Zur Automatisierung von Fluggeräten
    Beliebtes Hobby oder bedrohliches Kampfgerät: Die öffentliche Wahrnehmung sogenannter „Drohnen“ scheint vor allem von diesen beiden Anwendungsbereichen geprägt. Zu den Film- und Fotodrohnen, die vor allem private Freizeitpilot:innen im niedrigen Luftraum umherschwirren lassen, kommen aber immer mehr Maschinen im professionellen, zivilen Einsatz hinzu. Und die unterscheiden sich nicht nur in Form, Größe und Gewicht, sondern erfordern auch neue Regelungen und Sicherheitsüberlegungen. Damit die vielfältigen, zivilen Einsatzmöglichkeiten realisiert werden können, die etwa für die Medizin, in Landwirtschaft und Umweltschutz oder für die Seenotrettung hilfreich sein könnten, müssen nicht nur technische, sondern vor allem regulative und infrastrukturelle Herausforderungen gemeistert werden. Schließlich sind all diese Fluggeräte – auch die Hobbydrohnen – Teil des zivilen Luftverkehrs. Uwe Klingauf ist Professor für Flugsysteme und Regelungstechnik an der Technischen Universität Darmstadt und forscht seit vielen Jahren zu vielfältigen Fragestellungen der bemannten und unbemannten Luftfahrt. Der Experte auch für automatisierte Fluggeräte spricht im Digitalgespräch über den Stand der Technik, spannende aktuelle Trends und Herausforderungen für die Forschung und Entwicklung. Er erklärt, welche Sicherheitsüberlegungen die Einführung von Drohnen im urbanen Raum begleiten, welche Prozesse dafür ablaufen müssen und welche Einsatzmöglichkeiten viel Potential haben, sich durchzusetzen. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Klingauf, was das Potential neuer Einsatzmöglichkeiten ausmacht, wovon abhängen wird, welche Entwicklungen sich durchsetzen – und was aus dem Hype um Paketdrohnen und Flugtaxis geworden ist.

    Digitales Kreditscoring: Wie Datenanalysen darüber entscheiden, wem man Geld leiht und wem nicht

    Digitales Kreditscoring: Wie Datenanalysen darüber entscheiden, wem man Geld leiht und wem nicht
    Wenn wir ein Konto eröffnen, einen Kredit beantragen oder einen Handyvertrag abschließen, werden wir in der Regel aufgefordert, einer Bonitätsprüfung zuzustimmen – zum Beispiel bei der Schufa. Wer einen solchen Score über uns anfordert, erhofft sich davon eine möglichst verlässliche Aussage darüber, ob wir wohl unseren finanziellen Verpflichtungen nachkommen werden. Aber wie kommt diese Aussage zustande? Big Data und Künstliche Intelligenz ermöglichen es, sich bei dieser Frage ganz neuer Strategien zu bedienen, mit denen individuellere, möglicherweise präzisere oder sogar „gerechtere“ Scores erstellt werden könnten. An diesem Punkt setzen FinTechs an, die – anders als die Schufa – für ihre Scores grundsätzlich unseren ganzen digitalen Fußabdruck nutzen könnten: Automatisierte Verfahren finden Muster und Korrelationen, mit denen sich Aspekte aller Lebensbereiche in Finanzdaten übersetzen lassen. Ob das Ergebnis, in das zusätzlich zu Einkommen und Zahlungsverhalten auch Musikgeschmack und Jogging-Route eingeflossen sind, immer mit der Realität übereinstimmt, ist die eine Frage – eine andere, ob dabei nicht auch persönliche Merkmale eine Rolle spielen, die eigentlich vom Diskriminierungsverbot betroffen sind. Denn, das zeigen Untersuchungen immer wieder: KI-Modelle scheinen sozial benachteiligte Gruppen systematisch zu diskriminieren. Und auch Kredithaie können je nach Rechtslage von dieser automatisierten Fortschreibung gesellschaftlicher Ungerechtigkeit profitieren.   Katja Langenbucher ist Professorin für Bürgerliches Recht, Wirtschaftsrecht und Bankrecht am House of Finance der Goethe-Universität Frankfurt am Main. Die Juristin forscht und lehrt unter anderem zu rechtlichen Fragen des Einsatzes Künstlicher Intelligenz im Finanzsektor. Im Digitalgespräch erklärt die Expertin, welche Überlegungen hinter der Entwicklung neuartiger KI-Modelle zur Bewertung von Kreditwürdigkeit stecken, wo dabei Regulierungsbedarfe entstehen aber auch, welche Probleme mit ihrer Hilfe bearbeitet werden können. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Langenbucher Unterschiede zwischen Anbietern von Scoring auch im internationalen Vergleich und welche Gerechtigkeitsprobleme auch auf Ebene der EU eine offene demokratische Debatte erfordern.

    Biochemie trifft Informatik: Wie man digitale Daten in DNA speichern kann

    Biochemie trifft Informatik: Wie man digitale Daten in DNA speichern kann
    Die Digitalität kennt bisher keine Formen der Langzeitarchivierung: höchstens 50 Jahre sind die langlebigsten Festplatten und Bänder intakt, danach gehen die Daten verloren, die auf ihnen gespeichert waren. Und auch, wenn Chips und Festplatten immer kleiner zu werden scheinen, gerät ihre Kompaktheit irgendwann an natürliche Grenzen. Gleichzeitig spielen sich immer mehr wichtige Prozesse im Digitalen ab, sammeln wir immer mehr digitale Daten und entwickeln neue Ideen und Konzepte, Informationstechnologien in den Alltag und in technische Abläufe zu integrieren. Unsere Kultur drückt sich auch im Digitalen aus, es entstehen digitale Werte und Werke. Der Bedarf für innovative Speichermedien, die einerseits flexibel einsetzbar sind und andererseits Jahrhunderte und Jahrtausende überdauern können, ist also da. Eine vielversprechende Kandidatin bei der Suche nach Lösungen ist die DNA. Wie gelingt es, Digitalität in diese biochemische Substanz zu übersetzen? Und was ergeben sich dann für neue Möglichkeiten? Prof. Dr. Robert Grass forscht und lehrt am Departement Chemie und Angewandte Biowissenschaften an der ETH Zürich und arbeitet dort insbesondere daran, DNA als Speichermedium nutzbar zu machen: Er hat ein Verfahren mitentwickelt, bei dem DNA in winzigen Glaskügelchen über viele Jahrtausende hinweg haltbar bleibt – und gleichzeitig bei Bedarf ausgelesen werden kann. Im Digitalgespräch erklärt der Wissenschaftler und Erfinder, wie man dabei vorgeht, welche Herausforderungen bestehen und welche Zukunftsvisionen er und seine Kollegen für die Entwicklung dieser neuen Speichertechnologie haben. Dabei beschreibt er Einsatzmöglichkeiten für Industrie und Wirtschaft einerseits und die Archivierung digitaler wie auch digitalisierter Kulturgüter andererseits. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Grass Analogien zwischen Naturvorgängen und technischen Prozessen und welche schwierigen Aufgaben unbedingt gelöst werden müssen, wenn Archive – und besonders digitale! – auch in ferner Zukunft nicht nur intakt, sondern verstehbar sein sollen.

    In die eigene finanzielle Zukunft schauen: Digitale Rententransparenz

    In die eigene finanzielle Zukunft schauen: Digitale Rententransparenz
    Wer hat ein Gefühl dafür oder weiß gar, wie die eigenen finanziellen Verhältnisse im Alter sein werden? Gerade, wenn die Rentenzeit noch einige Jahrzehnte vor uns liegt, scheint sie kaum planbar zu sein. Und so warten wir ab. Und wir schieben die Frage, ob unser Geld im Alter reichen wird, vor uns her – vielleicht besonders dann, wenn wir da eine Lücke fürchten. In der Tat machen sich viele Menschen nicht klar, dass sie selbst aktiv werden müssen, um ihr Auskommen im Alter zu ermöglichen. Und was könnte man überhaupt tun, sobald man das Problem einer „Rentenlücke“ erkennt? Das Lagebild ist ja komplex, denkt man an mögliche Versicherungen, Ersparnisse und Vermögenswerte. Auch Inflation und Entwicklungen auf dem Wohnungsmarkt spielen hinein. Das Feld scheint tatsächlich zu unübersichtlich für Laien – also ein typischer Fall für digitale Hilfsmittel. Lassen sich aus Daten, Randbedingungen und individuellen Faktoren Prognosen und sogar alternative Szenarien errechnen? Andreas Hackethal ist Professor für Finanzen am House of Finance der Goethe-Universität Frankfurt a.M. Der Wirtschaftswissenschaftler forscht zu Finanzen privater Haushalte und entwickelt an der Goethe-Universität eine aufwendige App, mit der die eigenen finanziellen Verhältnisse im Alter simuliert werden können – das „Rentencockpit“. Im Digitalgespräch erklärt Hackethal, warum es für viele Menschen so schwierig ist, sich ein klares Bild von der eigenen finanziellen Zukunft zu machen und wie eine App helfen kann, Wissenslücken zu schließen. Er beschreibt, wie das komplexe App-Projekt zustande kam und worauf es bei der Umsetzung ankommt. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Hackethal, wie digitale Rententransparenz Entscheidungen im Hier und Heute beeinflussen kann, welche Chancen sich dadurch für Individuen und Lebensgemeinschaften auftun – und welche politischen Folgen es haben kann, Rentenlücken transparent zu machen.

    Gaming-Kultur für alle: Szenen, Debatten und ein Milliardenmarkt

    Gaming-Kultur für alle: Szenen, Debatten und ein Milliardenmarkt
    Längst ist das, was früher mal eine Gamer:innen-Szene aus Insider:innen gewesen sein mag, in der vollen Breite des Gesellschaft angenommen. Quer durch alle Altersgruppen und sozialen Schichten spielen die meisten Deutschen Videospiele – zum Abschalten, um Wartezeit zu verkürzen, im ernsthaften Hobby oder gar als Beruf.  Aber nicht alle, die spielen, würden sich auch gern als Gamer:innen bezeichnen. Videospiele sind zwar als Kulturgut anerkannt, ihre öffentliche Wahrnehmung scheint aber nach wie vor geprägt vom Vorurteil des männlichen, eher jungen Gamers, der viel zu viel Zeit mit Ballerspielen verbringt – die im schlimmsten Fall aggressiv machen, in jedem Fall aber Zeitverschwendung sind. Die große Gruppe der Spieler:innen und auch die der Entwickler:innen ist aber sehr viel offener und diverser; das gigantische Angebot an Videospielen ist entsprechend vielfältig. Wie sehen also heute Gaming-Welten aus? Was passiert abseits der berüchtigten Ego-Shooter? Und geht es beim Videospielen immer „bloß“ um Unterhaltung?   Rae Grimm ist Head of Digital Publishing bei der Webedia Gaming GmbH, zu der die Magazine GamePro, GameStar und MeinMMO gehören. Im Digitalgespräch schildert die Expertin für Videospiel-Kulturen, welche Facetten Gaming heute bietet und was unterschiedliche Szenen kennzeichnet. Sie erklärt, was Innovationen ausmachen, was Spieler:innen und Entwickler:innen wichtig ist und welche Neuerungen und Debatten die Gaming-Welt beschäftigen. Mit den Gastgeber:innen Marlene Görger und Petra Gehring diskutiert Grimm die gesellschaftliche Bedeutung von Videospielen und Videospiel-Kritik, Zusammenhänge der Gaming-Industrie – und das ungute Gefühl, das das Chatten mit KI-gestützten, digitalen „Freunden“ machen kann.