Specialization Complex Systems

The Complex Systems specialization deals with architectures, models, methods, algorithms and tools for IT systems, which due to their size and complexity require a systematic approach to design, implementation and operation, as well as related topics.

Mandatory area

Area seminar Complex Systems (offer in winter and summer term)

Specialization

If proof of knowledge of the German language of at least level B2 of the Common European Framework of Reference, the German-language modules can also be choosen.

Modules with a total scope of 24 credit points are to be selected from the following catalogues:

Modules in English language

Network Security

(irregularly, winter term)

The lecture deals with varioustechnical and organizational aspects of network security. Technical aspects are devices like firewalls, systems for detecting intrusions, proxies, VPNs etc., which are installed and maintained to increase security.
The organizational aspects are defined and to be observed work guidelines for people, which are also to increase security.

  • Introduction: protection goals, taxonomy of possible attacks, identification of general risks, basics of security and technical components for defence
  • Technical aspects: Firewalls, intrusion detection systems, proxies, virtual private networks (VPNs), public key infrastructure (PKI), network device security, computer security, network forensics
  • Organizational aspects: Security processes, policy and security design, policy development and application, assessment, human aspects and social engineering, policy enforcement, disaster recovery and continuity planning, certification.
Cloud Computing

(irregularly, winter term)

Cloud computing is a new paradigm for distributed systems that allows to flexibly use hard-and software components over a network such as the Internet. It is, for example, possible to deal with load peaks of applications that run in the cloud by dynamically scaling compute, memory, and network resources at runtime, while still paying only for the actually used resources. Cloud computing does not only change the development and the architecture of future application systems, but also the related business processes and models.

The lecture gives an overview of the concepts and architectures in the area of cloud computing and deals with different cloud-based approaches. Underlying technologies, such as virtualization and map reduce, are introduced and their role in the cloud architecture is discussed. Programming models for the cloud and current developments are also considered

Selected Topics in Embedded Systems Design

(winter term)

Modern developments and trends in the domain of embedded systems permanently result in a multitude of novel and interesting topics. Within this module, such topics are addressed. The objective of this module lies in picking up new ideas and concepts in the embedded systems domain. Hence, leading edge research topics in the scope of the Chair of Embedded Systems can be taught, discussed and rated. A particular focus is on embedded systems architectures, design methods for embedded systems, and verification methods for embedded systems. The precise topic of the module will be defined at start of term.

Systems Biology

(winter term)

This module is an introduction to the interdisciplinary research field of systems biology - the application of systems theory to biological systems. Using experimental data and information from databases and publications, systems biology investigates biological processes related to biotechnological and biomedical applications. This module introduces basic techniques for mathematical modelling and computer simulations of nonlinear dynamical systems in the life sciences. Students interested in systems biology should have some background in mathematics and should not be afraid to broaden their horizon towards biology. This module can be complemented by the module BioSystems Modelling and Simulation.

Event-Driven Architectures

(irregularly, summer term)

An event-driven architecture (EDA) is an architectural pattern that is based on the detection, distribution, and processing of events. EDAs loosely couple the components of a distributed system making large and complex systems manageable.

Historically, EDAs were used, e.g., in the area of graphical user interfaces. However, due to their advantageous characteristics, they are now applied in many application areas ranging from sensor networks, over embedded systems to the orchestration of complex business processes in agile business environments.

Students get to know events as a mean to structure distributed systems as well as the basic ideas, principles, and concepts of event-driven software architectures. They get a practical insight into the technological foundations as well as into the application and implementation of event-driven architectural patterns.

Cybersecurity

(irregularly, summer term)

Knowledge and skills in the area of data and information security, in cryptographic and organizational procedures to secure computing systems and networks; ability to analyze the security level of IT systems, including technical, social and organizational aspects.

Models for Business Processes and Services

(summer term)

Processes:

  • Semiformal modeling languages
  • Formal Modeling
  • Qualitative analysis (soundness)
  • Quantitative analysis (modeling and analyzing timed and stochastic systems)
  • Flexibility
  • Process Mining
  • Conformance Checking
  • Artefact centric Modeling

Services:

  • Modeling and execution languages
  • Composition, Choreographies
  • Formal Modeling of service behavior
  • Basic algorithms for service behavior: correctness, mediation, substitutability, Test case generation
Hardware/Software Co-Design

(summer term)

Embedded systems are optimized with respect to multiple and often conflicting design goals while simultaneously underlying stringent constraints, e.g., area, costs, performance, and energy consumption. The design of such complex systems results in several new problems. In particular,

  1. the selection of processors, memories, and communication resources;
  2. the hardware/software partitioning of the specification;
  3. 3) the automatic synthesis of interfaces and communication resources;
  4. 4) the verification.

In this module the following topics are covered:

  • Overview and comparison of architectures for MPSoCs (Multi-Processor System on Chip) and NoCs (Network on Chip)
  • Methodologies for the design of multi-processor systems: Hardware/software partitioning / task distribution, Quality estimation methods, Performance analysis-Communication synthesis: Types of communication, Synchronization, Synthesis, Design space exploration-Verification and virtual prototyping

Modules in German language

Computergestützte Verifikation

(unregelmäßig, im Wintersemester)

Wir suchen in Systemen nach solchen Fehlern, die beim Testen unentdeckt bleiben. Wir servieren solide Theorie mit der notwendigen Prise Pragmatik, um einem wirklich herausfordernden Problem interessante und praktisch einsetzbare Lösungen abzugewinnen.  Damit leisten wir einen wichtigen Beitrag zur Zuverlässigkeit von IT-Systemen und lernen viele leistungsstarke Algorithmen kennen, die sicher auch anderswo einsetzbar sind.

Kryptographie, Algorithmen und Komplexität

(unregelmäßig, im Wintersemester)

Das Modul vermittelt grundlegende Konzepte und Techniken zum Entwurf und zur Analyse von Algorithmen. Insbesondere werden effiziente exakte Algorithmen, parallele Algorithmen, randomisierte und approximative Algorithmen, parametrisierte Algorithmen und die entsprechenden Komplexitätsklassen behandelt. Der Kryptographie-Teil beschäftigt sich mit Verfahren zur Geheimhaltung und zur Gewährleistung der Authentizität und der Integrität von Nachrichten und Daten. Der Schwerpunkt ist die asymmetrische (Public Key) Kryptographie, in welcher Kenntnisse aus der Komplexitätstheorie eine entscheidende Rolle spielen.

Verteilte Algorithmen

(unregelmäßig, im Wintersemester)

Heutige Anwendungssysteme sind in der Regel nicht auf einen einzelnen Rechner beschränkt, sondern laufen auf mehreren Rechnern, die miteinander vernetzt sind und keinen gemeinsamen physikalischen Speicher besitzen. Algorithmen für solche "Verteilten Systeme" sind aufgrund der in diesen Systemen auftretenden Phänomenen deutlich komplexer als vergleichbare zentralisierte Algorithmen. Die Vorlesung gibt einen Überblick über die in verteilten Systemen auftretenden konzeptionellen Probleme und behandelt algorithmische Lösungsmöglichkeiten für diese.

Parallele und verteilte Simulation

(unregelmäßig, im Sommersemester)

Parallel-verteilte Methoden zur Simulation spielen in den unterschiedlichsten Bereichen eine Rolle, in denen es gilt, große Systeme effizient zu simulieren, wie z.B. um Routingprotokolle in Computernetzwerken mit Millionen von Knoten auszuwerten, online den Flugzeugverkehr zu überwachen oder die Ausbreitung von Epidemien vorherzusagen. Im Modul werden Kenntnisse über parallel-verteilte Simulationsverfahren für diskret-ereignisorientierte Modelle vermittelt.

Graphen- und Hypergraphenmodelle

(unregelmäßig, im Sommersemester)

Das Modul behandelt Graphen- und Hypergraphenmodelle in einigen ausgewählten Gebieten der Informatik wie Bioinformatik, technischer und praktischer Informatik, Datenbanken und Künstlicher Intelligenz. Dazu werden grundlegende Eigenschaften und Methoden wie Baumstruktur von Graphen und Hypergraphen, Dekompositionsmethoden und Durchschnittsgraphen wie z.B. Intervallgraphen behandelt.

Verteilte eingebettete Systeme

(im Sommersemester)

Diese Vorlesung vermittelt Kenntnisse über grundlegende Konzepte, Algorithmen und Architekturen verteilter eingebetteter Systeme und Sensornetzwerke. Betrachtet werden Programmierungskonzepte verteilter eingebetteter Systeme, der Entwurf von verteilten eingebetteten Systemen, die insbesondere durch einen geringen Energieverbrauch charakterisiert sind und in der Regel mit einem drahtlosen Interface ausgestattet sind. In den zugehörigen Übungen wird der Aufbau von verteilten Systemen vertieft und eine komplexe Applikation entworfen und realisiert.

Themen:

  • Eingebettete Prozessoren
  • Aufbau von Mikrocontrollern, Komponenten von Mikrocontrollern, Programmierung von Mikrocontroller
  • Drahtlose Netzwerke (802.15.4, 6LoWPAN, ZigBee)
  • Sensornetzwerkplattformen
  • Entwicklungssysteme, Architektur, Basisstationen, Gateways und Knoten
  • Ausgewählte Probleme in Sensornetzwerken
  • Lokalisierung und Routing in Ad-Hoc und Sensornetzwerken
  • Algorithmen, Klassifikationen
  • Software für Sensornetzwerke
  • Betriebssysteme, Hardware Abstraktionsebene, Middleware und service-orientierte Architektur
  • Anwendungen von Sensornetzwerken
  • Internet der Dinge
Netzwerkprotokolle und Dienste im Internet

(unregelmäßig, im Sommersemester)

In dieser Veranstaltung greifen wir wechselnde Themen im Bereich netzbasierter Anwendungen auf. Die aktuell verfolgte Fragestellung beschäftigt sich mit Sicherheitsfragen, mit der Absicherung von Netzwerken und der Wiederherstellung der Betriebsbereitschaft nach Zwischenfällen sowie mit Aspekten der Computer-Forensik.

Complement

If proof of knowledge of the German language of at least level B2 of the Common European Framework of Reference, the German-language modules can also be choosen.

Modules with a total scope of 12 credit points are to be selected from the following catalogues:

Modules in English language

Cognitive Systems

(irregularly, winter term)

Cognitive Science has its roots in psychology, linguistic, philosophy and in computer science. Nowadays, quite a lot information processing or knowledge processing models are funded on psychological insights from the field of Cognitive Science. In this lecture, we will give an introduction to the broad field of Cognitive Science, covering aspects of human cognition and how these aspects have been used for computer models of cognition. We learn about psychological and medical basics and follow the path to artificial intelligence (AI). Models for information processing and knowledge elicitation will be introduced and investigated. The examples used in this lecture are related to current trends in AI research, same as to expert systems development, which is a rather traditional field in modeling cognition.

Data Driven Modeling and Simulation

(irregularly, winter term)

Data play a central role in modeling and simulation.To analyze, calibrate, and validate a simulation model, a multitude of different simulation experiments can be executed which rely on diverse data. At the same time, these simulation experiments may reveal important information about the data.The lecture gives an overview of experiment design methods, data analysis methods, as well as different types of simulationexperiments, including sensitivity analysis, statistical model checking, optimization, parameter estimation and uncertainty quantification. Workflow and provenance methods support the replicability of simulation studies and the assessment of simulation products.

HCI and Interaction Design

(irregularly, winter term)

“The increasing importance of designing spaces for human communication and interaction will lead to expansion in those aspects of computing that are focused on people, rather than machinery. The methods, skills, and techniques concerning these human aspects are generally foreign to those of mainstreamcomputer science, and it is likely that they will detach (at least partially) from their historical roots to create a new field of ‘interaction design’” (T. Winograd, 1997).

Computer Vision

(winter term)

  • Image Formation
  • Image Processing
  • Feature Detection and Matching#
  • Image Stitching
  • Computational Photography
  • Stereo Correspondence
  • 3D Recognition
  • Image-based Rendering
AI7: Reasoning under Uncertainty

(irregularly, winter term)

Within the course „Artificial Intelligence VII“, we will cover approaches and algorithms for reasoning under uncertainty. Based on sensory inputs, which are usually noisy, intelligent systems have to decide which action to take.

During the course, the following approaches to tackle this problem are introduced:

  • Markov Decision Processes (MDP)
  • Partially Observable Markov Decision Processes (POMDP)
  • Reinforcement Learning (RL) / inverse Reinforcement Learning (iRL)
  • Advanced discriminative models (MRF, CRF)
  • plan, intent and activity recognition

In addition, we will discuss the mathematics of the corresponding algorithms in detail.

Contemporary Topics in Business Information Systems

(summer and winter term)

At the beginning, individual questions on selected current developments in business information systems will be presented in an overview in order to familiarize students with them. Details and concretization of the underlying methods, technologies or applications are then worked out by the students in small groups and discussed in the module. The individual contents are indicated at the beginning of each term.

AI3: Artificial Neural Networks

(irregularly, summer term)

Artificial neural networks (ANNs) play an important role for many modern AI systems. In some application areas they even outperform humans on selected tasks. Based on interconnected simplecomputational units (neurons) complex behavior emerges. Training algorithms can be used to fine-tune the internal parameters of a network based on available training data. The module covers the mathematical foundations as well as practical aspects. The students will learn how to solve a given classification or regression problem using state of the art neural architectures.

Big Data Processing

(irregularly, summer term)

Big Data Processing will focus on the following topics:

  • Distributed and parallel databases: Data that was previously stored centrally is distributed horizontally and vertically to various computer nodes. The effects on design principles, transaction procedures, lock protocols and query optimization are explained.
  • Parallel analysis of large amounts of data: Processing principles for the parallel analysis of distributed data are discussed, such as map/reduce and frameworks for data flow programming. Furthermore, it will be discussed how such analyses can be processed in a data-efficient and thus privacy-aware manner by means of vertical distribution of the algorithms.
  • Data stream processing: When processing sensor data on the Internet of Things or in large-scale scientific experiments, new data is generated every second that has to be processed. Conventional database technologies are not suitable in such an environment. The lecture discusses concepts of streaming data management, which can filter, compress andanalyze data streams.
Data Warehouses, Business Intelligence and Data Mining

(summer term)

In this lecture, students learn to plan, build and use Business Intelligence applications, namely data warehouse technology and data mining techniques.
In Business Intelligence applications, heterogeneous datasets are integrated into Data Warehouses and used for management decisions in companies and organizations. The module introduces the basics of Data Warehouses, explains the underlying multidimensional data model, introduces different storage variants and shows how OLAP requests on Warehouse data can be formulated and executed. The ETL process for extracting and transforming data from different source databases (e.g. relational, semi structured, and NoSQL) into the multidimensional data structure of Data Warehouses is presented.
Selected Data Mining methods are introduced and their implementation on raw data andon top of Data Warehouse is explained.Several application scenarios describe the interaction of the Data Warehouse components and the Data Mining method.

 

Applications of Enterprise Modeling

(summer term)

The course covers the following for selected areas of enterprise modeling:

  • Methods of modeling, including notations, tools and procedures
  • Analysis of enterprise models
  • Quality aspects of enterprise modeling
  • Frameworks and standards
Requirements Engineering

(irregularly, summer term)

Requirements Engineering (RE) “is often treated as a time-consuming, bureaucratic and contractual process.
This attitude is changing as RE is increasingly recognized as a critically important activity in any systems engineering process” (Nuseibeh & Easterbrook, 2000)

If proof of knowledge of the German language is at least level B2 of the Common European Framework of Reference and if the prerequisites for participation in the module are met, the modules of the compulsory optional catalogue of the same name of the master's study course Computer Science can be chosen in addition to the listed modules.

Modules in German language

Digitale Bibliotheken und Multimedia Information Retrieval

(unregelmäßig, im Wintersemester)

DigBib/MMIR ist eine Veranstaltung der Universitätsbibliothek Rostock (Sebastian Schick, Ilvio Bruder) in Kooperation mit dem Lehrstuhl Datenbank- und Informationssysteme (Holger Meyer).

Wir behandeln die Weiterentwicklung relationaler Datenbanksysteme zu Systemen, die komplexere Dokumente langfristig verwalten können.
Im ersten Teil der Vorlesung wird es um Text-Dokumente und ihre Beschreibung mit Metadaten gehen. Wir werden neben den Standards für digitale, wissenschaftliche Bibliotheken auch auf Anforderungen für die Verwaltung von Consumer-Bibliotheken wie elektronischen Zeitschriften eingehen. Die behandelten Teilprobleme reichen von der Integration von Forschungsdaten (Messdaten) in die Dokumente bis zu Fragen des Urheberrechts bei selbst erstellten Fotos.
Im zweiten Teil werden wir uns um Multimedia-Dokumente kümmern. Ausgehend von relationalen Datenbanksystemen werden bereits im SQL:1999-Standard Konzepte eingeführt, um Multimedia-Objekte zu modellieren, zu komprimieren und nach ihnen suchen zu können. An Beispielen wie Musik und räumlichen Daten werden diese Konzepte erläutert. Es werden auch ausgewählte Suchstrukturen und -verfahren zur effizienten Suche behandelt.

In den Übungen werden unter anderem Suchwerkzeuge und Systeme für Digitale Bibliotheken erklärt, demonstriert und benutzt.

Grundlagen der Datenbankforschung

(unregelmäßig, im Wintersemester)

In diesem Jahrzehnt hat die Grundlagenforschung im Bereich Datenbanksysteme durch Big Data und  Data Science einen massiven und überraschenden Schub bekommen. Beschäftigte man sich in der Datenbank-Grundlagenforschung früher mit Datenbankenturf, Anfrageoptimierung und der Sicherheit und Mächtigkeit von Anfragesprachen, so sind nun Anwendungsbereiche wie Datenaustausch, Integration heterogener Daten, Evolution von Daten und Datenstrukturen, die Suche nach den Quelldaten für eine Datenbankauswertung (Provenance Management), eine möglichst datensparsame und damit datenschutz-gerechte Anfrageauswertung die Ausgangspunkte für Fragestellungen der Datenbank-Grundlagenforschung.

In der Vorlesung „Grundlagen der Datenbankforschung“ (GDBF) werden wir diese Anwendungsbereiche aufgreifen und zunächst immer in anwendungsorientierten Kapiteln das Problem erläutern, bevor wir im darauffolgenden Kapitel dann die Lösung eines Kernproblems mit Hilfe von Techniken aus der aktuellen Grundlagenforschung erklären.

Zu Beginn der Vorlesung werden wir in einem zweiwöchigen Crashkurs die wichtigsten Begriffe aus der Sommersemester-Master-Vorlesung „Theorie relationaler Datenbanken“ wiederholen, deren Konzepte auch in der modernen Datenbankforschung wieder auftauchen.
Die Vorlesung wird mit (Tafel-)Übungen angereichert, damit die vorgestellten Techniken an kleinen Beispielen angewendet werden können.

Künstliche Intelligenz 2: Grundlagen des maschinellen Lernens

(unregelmäßig, im Wintersemester)

In der Lehrveranstaltung werden die grundlegenden Konzepte und Methoden für die Verarbeitung von Daten mithilfe maschineller Lernverfahren eingeführt.
Nach einer Einführung in das Thema werden zunächst die Grundlagen der Signalverarbeitung sowie die Gewinnung und Analyse von abstrakteren Merkmalen aus den Rohdaten behandelt.
Im Anschluss werden einzelne Ansätze und Lernverfahren im Detail untersucht. Zu diesen gehören:

  • Bayes’sche Entscheidungstheorie
  • Parameterschätzung
  • Nichtparametrische Methoden
  • Support-Vector Machines
  • Nichtmetrische Methoden: Entscheidungsbäume
  • Algorithmenunabhänge Verfahren  
Aktuelle Themen der Wirtschaftsinformatik

(im Sommer- und Wintersemester)

Einzelne Fragestellungen zu ausgewählten aktuellen Entwicklungen der Wirtschaftsinformatik werden zu Beginn überblicksartig vorgestellt, um die Studierenden damit vertraut zu machen. Details und Konkretisierungen der zugrundeliegenden Methoden, Technologien oder Anwendungen werden danach durch die Studierenden in Kleingruppen erarbeitet und im Modul diskutiert. Die Inhalte im Einzelnen werden jeweils zu Semesterbeginn angegeben.

Web 2.0 und Soziale Netze

(unregelmäßig, im Sommersemester)

Web 2.0 steht für dynamische, interaktive und kollaborative Anwendungen im Internet. Eine wichtige Ausprägung dieses "Mitmach-Gedankens" sind die sozialen Netze. Wir werden in dieser Veranstaltung viele der neueren Anwendungen im Web kennenlernen. Neben Technologien (Javascript, HTML5, kollaboratives Editieren) werden dabei auch wirtschaftliche Fragen (Business Cases) und strukturelle Aspekte (Blogs, Wikis, P2P Konzepte) im Fokus stehen.Die Vorlesung wird durch eine praktische Übung begleitet, in der im Team eine Web 2.0 Anwendung entwickelt wird.

Empirische Evaluation

(unregelmäßig, im Sommersemester)

Empirische Forschung und Evaluation sind Themen, über die viel gesprochen wird - oft allerdings ohne besondere Detailkenntnisse. Die wissenschaftliche Methode der empirischen Forschung und der Evaluation, die in den Human- und Sozialwissenschaften zu den Basismethoden der wissenschaftlichen Arbeit gehört, hat in der Informatik lange Zeit kaum eine Rolle gespielt. Aktuell ist festzustellen, dass Softwaresysteme sich zunehmend der kritischen Evaluation stellen müssen und dass Anwendungssysteme empirisch hinsichtlich bestimmter Fragestellungen untersucht werden. Insbesondere an der Schnittstelle zwischen Mensch und Computer bringt der Einsatz von empirischen Methoden und Evaluationen einen Erkenntnisgewinn (beispielsweise über Akzeptanz des Systems durch die Anwender). Die Tatsache, dass sich auch Hochschullehrer der Evaluation stellen (müssen) zeigt auch die gesellschaftliche Bedeutung dieser Methoden.

Theorie relationaler Datenbanken

(unregelmäßig, im Sommersemester)

Warum sollte man eine Vorlesung mit dem üblen Titel "Theorie von etwas ansonsten doch Praktischen" besuchen? Um Techniken für Datenbanksysteme zu entwickeln oder gar Konzepte für zukünftige Informationssysteme zu erforschen, benötigt man Grundlagenwissen zu den Datenbankmodellen und -operationen. Für Masterarbeiten, Promotionsarbeiten, Veröffentlichungen, Projekte in Universitäten, Forschungsinstituten oder Forschungsabteilungen von IT-Unternehmen müssen nicht nur neue Techniken entwickelt und aufgeschrieben werden, sondern auch gezeigt werden, dass sie besser sind als bekannte, ältere Techniken. Wie modelliert man aber Problem und Aufgabenstellung? Wie vergleicht man mit bekannten Techniken? Wie schreibt man Techniken, Algorithmen sowie erreichte Eigenschaften von Techniken und Algorithmen auf? Wie weist man nach, dass die eigene Technik besser ist? Ein möglicher Nachweis ist der formale Beweis, indem man ein formales Modell entwickelt und einen formalen Nachweis der Eigenschaften führt. Für Entwicklungs- und Forschungsfragestellungen im Datenbankbereich werden in dieser Vorlesung die grundlegenden Techniken wie Schemaeigenschaften, Formalisierung von Integritätsbedingungen sowie die Formulierung von Datenbankanfragen und -optimierungsverfahren besprochen. Die theoretischen Grundlagen werden abschließend auf aktuelle Forschungsgebiete wie Anfrageoptimierung, Datenbankintegration, Schemaevolution und Updates auf Sichten angewendet.

Statistische Signalverarbeitung und Inferenz

(unregelmäßig, im Sommersemester)

  • Mathematische Grundlagen der Statistik
  • Monte-Carlo-Simulationen / Sampling
  • Schätztheorie
    • Erwartungstreue Schätzung mit minimaler Varianz
    • Cramer-Rao-Schranke
    • BLUE: Bester linearer erwartungstreuer Schätzer
    • Maximum-Likelihood- und Least-Squares-Schätzung
    • Bayesscher Schätzer
  • Detektionstheorie
  • Neyman-Pearson-Theorem und Multiple Hypothesis Test
  • Generalized likelihood ratio test
Ethik und Digitalität

(unregelmäßig, im Sommersemester)

Ethik in der Informatik (und auch Technikethik) bedarf – ähnlich zur Ethik der Medizin – einen eigenen Handlungsrahmen. In der Lehrveranstaltung wird eine Einführung in die Grundlagen der Begriffe der Ethik gegeben und dieses Thema im Zusammenhang mit der Informatik dargestellt. Für das Berufsfeld der Informatiker:innen bzw. der Informatiklehrenden gibt es hier wichtige Anhaltspunkte im Kontext des Dual-Use Dilemmas, im Zusammenhang mit Informatik und Gesellschaft. Aspekte der Informatik und Gesellschaft werden diskutiert, ebenso Fragen internationalen ethischen Handelns. Ethische Richtlinien werden vorgestellt. In Diskursen innerhalb der Vorlesung wird Positionsfindung geübt und der Umgang mit philosophisch-ethischen Fragestellungen trainiert.

Individual Specialization

All modules that have not already been chosen for the fields „Specialization“ and „Complement“ as well as suitable modules from the master's courses in Business Informatics and Visual Computing of the Faculty of Computer Science and Electrical Engineering can be taken.