Modulkatalog im Wahlpflichtbereich 2 (Informatik) im Wintersemester

Computergestützte Verifikation

(unregelmäßig,im Wintersemester)

Wir suchen in Systemen nach solchen Fehlern, die beim Testen unentdeckt bleiben. Wir servieren solide Theorie mit der notwendigen Prise Pragmatik, um einem wirklich herausfordernden Problem interessante und praktisch einsetzbare Lösungen abzugewinnen.  Damit leisten wir einen wichtigen Beitrag zur Zuverlässigkeit von IT-Systemen und lernen viele leistungsstarke Algorithmen kennen, die sicher auch anderswo einsetzbar sind.

Kryptographie, Algorithmen und Komplexität

(unregelmäßig, im Wintersemester)

Das Modul vermittelt grundlegende Konzepte und Techniken zum Entwurf und zur Analyse von Algorithmen. Insbesondere werden effiziente exakte Algorithmen, parallele Algorithmen, randomisierte und approximative Algorithmen, parametrisierte Algorithmen und die entsprechenden Komplexitätsklassen behandelt. Der Kryptographie-Teil beschäftigt sich mit Verfahren zur Geheimhaltung und zur Gewährleistung der Authentizität und der Integrität von Nachrichten und Daten. Der Schwerpunkt ist die asymmetrische (Public Key) Kryptographie, in welcher Kenntnisse aus der Komplexitätstheorie eine entscheidende Rolle spielen.

Systems Biology

(unregelmäßig, im Wintersemester)

This module is an introduction to the interdisciplinary research field of systems biology - the application of systems theory to biological systems. Using experimental data and information from databases and publications, systems biology investigates biological processes related to biotechnological and biomedical applications. This module introduces basic techniques for mathematical modelling and computer simulations of nonlinear dynamical systems in the life sciences. Students interested in systems biology should have some background in mathematics and should not be afraid to broaden their horizon towards biology. This module can be complemented by the module BioSystems Modelling and Simulation.

Network Security

(unregelmäßig, im Wintersemester)

The lecture deals with varioustechnical and organizational aspects of network security. Technical aspects are devices like firewalls, systems for detecting intrusions, proxies, VPNs etc., which are installed and maintained to increase security.
The organizational aspects are defined and to be observed work guidelines for people, which are also to increase security.

  • Introduction: protection goals, taxonomy of possible attacks, identification of general risks, basics of security and technical components for defence
  • Technical aspects: Firewalls, intrusion detection systems, proxies, virtual private networks (VPNs), public key infrastructure (PKI), network device security, computer security, network forensics
  • Organizational aspects: Security processes, policy and security design, policy development and application, assessment, human aspects and social engineering, policy enforcement, disaster recovery and continuity planning, certification.
Verteilte Algorithmen

(unregelmäßig, im Wintersemester)

Heutige Anwendungssysteme sind in der Regel nicht auf einen einzelnen Rechner beschränkt, sondern laufen auf mehreren Rechnern, die miteinander vernetzt sind und keinen gemeinsamen physikalischen Speicher besitzen. Algorithmen für solche "Verteilten Systeme" sind aufgrund der in diesen Systemen auftretenden Phänomenen deutlich komplexer als vergleichbare zentralisierte Algorithmen. Die Vorlesung gibt einen Überblick über die in verteilten Systemen auftretenden konzeptionellen Probleme und behandelt algorithmische Lösungsmöglichkeiten für diese.

Data Driven Modeling and Simulation

(unregelmäßig, im Wintersemester)

Data play a central role in modeling and simulation.To analyze, calibrate, and validate a simulation model, a multitude of different simulation experiments can be executed which rely on diverse data. At the same time, these simulation experiments may reveal important information about the data.The lecture gives an overview of experiment design methods, data analysis methods, as well as different types of simulationexperiments, including sensitivity analysis, statistical model checking, optimization, parameter estimation and uncertainty quantification. Workflow and provenance methods support the replicability of simulation studies and the assessment of simulation products.

HCI & Interaction Design

(unregelmäßig, im Wintersemester)

“The increasing importance of designing spaces for human communication and interaction will lead to expansion in those aspects of computing that are focused on people, rather than machinery. The methods, skills, and techniques concerning these human aspects are generally foreign to those of mainstreamcomputer science, and it is likely that they will detach (at least partially) from their historical roots to create a new field of ‘interaction design’” (T. Winograd, 1997).

Digitale Bibliotheken und Multimedia Information Retrieval

(unregelmäßig, im Wintersemester)

DigBib/MMIR ist eine Veranstaltung der Universitätsbibliothek Rostock (Sebastian Schick, Ilvio Bruder) in Kooperation mit dem Lehrstuhl Datenbank- und Informationssysteme (Holger Meyer).

Wir behandeln die Weiterentwicklung relationaler Datenbanksysteme zu Systemen, die komplexere Dokumente langfristig verwalten können.
Im ersten Teil der Vorlesung wird es um Text-Dokumente und ihre Beschreibung mit Metadaten gehen. Wir werden neben den Standards für digitale, wissenschaftliche Bibliotheken auch auf Anforderungen für die Verwaltung von Consumer-Bibliotheken wie elektronischen Zeitschriften eingehen. Die behandelten Teilprobleme reichen von der Integration von Forschungsdaten (Messdaten) in die Dokumente bis zu Fragen des Urheberrechts bei selbst erstellten Fotos.
Im zweiten Teil werden wir uns um Multimedia-Dokumente kümmern. Ausgehend von relationalen Datenbanksystemen werden bereits im SQL:1999-Standard Konzepte eingeführt, um Multimedia-Objekte zu modellieren, zu komprimieren und nach ihnen suchen zu können. An Beispielen wie Musik und räumlichen Daten werden diese Konzepte erläutert. Es werden auch ausgewählte Suchstrukturen und -verfahren zur effizienten Suche behandelt.

In den Übungen werden unter anderem Suchwerkzeuge und Systeme für Digitale Bibliotheken erklärt, demonstriert und benutzt.

Grundlagen der Datenbankforschung

(unregelmäßig, im Wintersemester)

In diesem Jahrzehnt hat die Grundlagenforschung im Bereich Datenbanksysteme durch Big Data und  Data Science einen massiven und überraschenden Schub bekommen. Beschäftigte man sich in der Datenbank-Grundlagenforschung früher mit Datenbankenturf, Anfrageoptimierung und der Sicherheit und Mächtigkeit von Anfragesprachen, so sind nun Anwendungsbereiche wie Datenaustausch, Integration heterogener Daten, Evolution von Daten und Datenstrukturen, die Suche nach den Quelldaten für eine Datenbankauswertung (Provenance Management), eine möglichst datensparsame und damit datenschutz-gerechte Anfrageauswertung die Ausgangspunkte für Fragestellungen der Datenbank-Grundlagenforschung.

In der Vorlesung „Grundlagen der Datenbankforschung“ (GDBF) werden wir diese Anwendungsbereiche aufgreifen und zunächst immer in anwendungsorientierten Kapiteln das Problem erläutern, bevor wir im darauffolgenden Kapitel dann die Lösung eines Kernproblems mit Hilfe von Techniken aus der aktuellen Grundlagenforschung erklären.

Zu Beginn der Vorlesung werden wir in einem zweiwöchigen Crashkurs die wichtigsten Begriffe aus der Sommersemester-Master-Vorlesung „Theorie relationaler Datenbanken“ wiederholen, deren Konzepte auch in der modernen Datenbankforschung wieder auftauchen.
Die Vorlesung wird mit (Tafel-)Übungen angereichert, damit die vorgestellten Techniken an kleinen Beispielen angewendet werden können.

Kognitive Systeme

(unregelmäßig, im Wintersemester)

Die Veranstaltung gibt eine für Informatiker geeignete Einführung in Kognitionswissenschaften und Modelle menschlicher Kognition. Sie spannt dabei einen Rahmen von der psychologisch fundierten Kognitionswissenschaft, über die Künstliche Intelligenz, schließt Modelle menschlicher Kognition mit ein und reicht bis hin zu Anwendungsbeispielen aus Feldern wie Lehr-/Lernsysteme, Ambient Intelligence und Smart Environments. Kognitive Modelle, wie bspw. SOAR und ACT-R, werden vorgestellt und analysiert.

Künstliche Intelligenz II: Grundlagen des maschinellen Lernens

(unregelmäßig, im Wintersemester)

In der Lehrveranstaltung werden die grundlegenden Konzepte und Methoden für die Verarbeitung von Daten mithilfe maschineller Lernverfahren eingeführt.
Nach einer Einführung in das Thema werden zunächst die Grundlagen der Signalverarbeitung sowie die Gewinnung und Analyse von abstrakteren Merkmalen aus den Rohdaten behandelt.
Im Anschluss werden einzelne Ansätze und Lernverfahren im Detail untersucht. Zu diesen gehören:

  • Bayes’sche Entscheidungstheorie
  • Parameterschätzung
  • Nichtparametrische Methoden
  • Support-Vector Machines
  • Nichtmetrische Methoden: Entscheidungsbäume
  • Algorithmenunabhänge Verfahren  
Cloud Computing

(unregelmäßig, im Wintersemester)

Moderne Computerinfrastrukturen sind inhärent verteilt und parallel. Verteilung und Parallelität zeigen sich im Großen wie im Kleinen und reichen von mehreren Rechenkernen auf eingebetteten Chips bis zu Millionen vernetzter Computer im Internet, die gemeinsam Probleme lösen für die ein einzelnes noch so schnelles System nicht ausreicht.

Cloud-Computing ist ein neues Paradigma für verteilte Systeme, das es ermöglicht Hardware- und Softwarekomponenten flexibel nach Bedarf hinzuzubuchen. Beispielsweise können Lastspitzen beim Betrieb von Anwendungen in der Cloud durch die dynamische Anpassung von Rechenkapazität, Speicherplatz und Bandbreite abgefangen werden, wobei letztendlich nur die tatsächlich genutzten Ressourcen abgerechnet werden. Cloud-Computing verändert daher nicht nur die Entwicklung und Architektur zukünftiger Anwendungssysteme, sondern auch zugehörige Geschäftsprozesse und -modelle.

Die Veranstaltung gibt zunächst einen Überblick über das Konzept des Cloud-Computings und verschiedene Cloud-Ansätze. Es werden Basistechnologien wie Virtualisierung und Web Services vorgestellt und ihre Rolle in der Cloud-Architektur behandelt. Darauf aufbauende Programmiermodelle werden diskutiert und schließlich aktuelle Entwicklungen aufgegriffen.

Computer Vision

(unregelmäßig, im Wintersemester)

This module introduces basic concepts of computer vision and discusses advanced methods and algorithms in the following areas:

  • Image acquisition
  • Image filtering
  • Feature detection and matching
  • Multiple views and camera motion
  • Shape reconstructionComputational photography

The theoretical discussion in the lectures is complemented with practical programming projects using powerful software libraries such as OpenCV.

AI7: Schließen unter Unsicherheit

(iunregelmäßig, im Wintersemester)

Within the course „Artificial Intelligence VII“, we will cover approaches and algorithms for reasoning under uncertainty. Based on sensory inputs, which are usually noisy, intelligent systems have to decide which action to take.

During the course, the following approaches to tackle this problem are introduced:

  • Markov Decision Processes (MDP)
  • Partially Observable Markov Decision Processes (POMDP)
  • Reinforcement Learning (RL) / inverse Reinforcement Learning (iRL)
  • Advanced discriminative models (MRF, CRF)
  • plan, intent and activity recognition

In addition, we will discuss the mathematics of the corresponding algorithms in detail.