Search:
Lehrstuhl  |  Institut  |  Fakultät  |  LMU
print

Machine Learning im SS 2016


The lecture is given in English.


Aktuelles

  • The post-exam review will take place on September 9th, 2016, 12 pm - 1:30 p.m, location: Oettingenstr. 67, room 157
  • The exam results are now available on UniWorX
  • Please note the guidelines for the final exam
  • Please register for the final exam via UniWorX
  • Please note that the final exam will take place on July 28th, 4pm - 6pm in room M 218 (main building)

  • Lecture on July 6th will be 9. c.t.
  • Please register for the lecture via UniWorX.

Topic

Machine Learning is a data-driven approach for the development of technical solutions. Initially motivated by the adaptive capabilities of biological systems, machine learning has increasing impact in many fields, such as vision, speech recognition, machine translation, and bioinformatics, and is a technological basis for the emerging field of Big Data.

The lecture will cover:

  • Supervised learning: the goal here is to learn functional dependencies for classification and regression. We cover linear systems, basis function approaches, kernel approaches and neural networks. We will cover the recent developments in deep learning which lead to exciting applications in speech recognition and vision.
  • Unsupervised Learning: the goal here is to compactly describe important structures in the data. Typical representatives are clustering and principal component analysis
  • Graphical models (Bayesian networks, Markov networks), which permit a unified description of high-dimensional probabilistic dependencies
  • Reinforcement Learning as the basis for the learning-based optimization of autonomous agents
  • Some theoretical aspects: frequentist statistics, Bayesian statistics, statistical learning theory

The technical topics will be illustrated with a number of real-world applications.


Ziel des Maschinellen Lernens ist die Entwicklung von Methoden zur Realisierung lernfähiger technischer Systeme. In der Vorlesung werden die wichtigsten Zweige des Maschinellen Lernens vorgestellt:

  • Beim überwachten Lernen werden basierend auf vorhandenen Beispieldaten Systeme zur Klassifikation und zur Modellierung funktioneller Abhängigkeiten trainiert (typische Vertreter: Neuronales Netz, Support Vector Machine). Wir werden Deep Learning behandeln, eine Erweiterung von Neuronalen Netzen mit hoch-performanten Anwendungen für die Sprach- und Objekterkennung.
  • Das Ziel des unüberwachten Lernens ist es, autonom relevante Strukturen in Daten zu finden (typische Vertreter: Cluster Analyse, Independent Component Analyse).
  • Kausal Probabilistische Netze (Bayesian Networks) stellen einen Rahmen zur Beschreibung und zum Erlernen von komplexen probabilistischen Abhängigkeiten dar, bis hin zur Analyse von Kausalität.
  • Reinforcement Learning ist das wichtigste Lernverfahren zur Optimierung des Verhaltens von Agenten.

Organisation

  • Umfang: 3+2 Semesterwochenstunden (6 ECTS)
  • Vorlesung: Prof. Dr. Volker Tresp
  • Vorkenntnisse: Die Beherrschung mindestens einer Programmiersprache
  • Ansprechpartner Übungen: Christian Frey



Zeit und Ort

Veranstaltung Zeit Ort Beginn
Vorlesung Mi 9.00 s.t. - 12.00 Uhr Raum A 016 (Hauptgebäude) 13.04.2016
Übung
Do, 14.00 - 16.00 Uhr Raum 101 (Amalienstr. 73A)
21.04.2016

Do, 16.00 - 18.00 Uhr Raum 101 (Amalienstr. 73A)
21.04.2016

Planung

Vorlesung Übung
Datum Thema Datum Blatt
13.04.16 Course Logistics, Linear Algebra (recap), Perceptron (updated), Linear Regression (updated) 14.04.16 -
20.04.16 Introduction 21.04.16 Exercise Sheet 1, Exercise1-3.ipynb
27.04.16 Basis Functions, Neural Networks (updated) 28.04.16 Exercise Sheet 2 numberMatrix (.RData .csv), Exercise2-1
(.ipynb, .html), Exercise2-2
(.ipynb, .html)
04.05.16 Deep Learning (updated) 05.05.16 (holiday)
11.05.16 Kernels 12.05.16 Exercise Sheet 3
18.05.16 Probability, Frequentist Statistics and Bayesian Statistics, Linear Classification 19.05.16 Exercise Sheet 4, Exercise4-3
(.ipynb, .html)
25.05.16 Continuation of 'Linear Classification' 26.05.16 (holiday)
01.06.16 Guest lecture on Deep Learning 02.06.16 Exercise Sheet 5, Exercise5-1
(.ipynb, .html), Exercise5-2
(.ipynb, .html)
08.06.16 Guest lecture on Introduction of Reinforcement Learning
(no slides)
09.06.16 Exercise Sheet 6
15.06.16 Support Vector Machine, Model Comparison 16.06.16 Exercise Sheet 7, body_sizes (.txt)
22.06.16 Continuation of 'Model Comparison', PCA 23.06.16 Exercise Sheet 8
29.06.16 Continuation of 'PCA' 30.06.16 Exercise Sheet 9
06.07.16 Bayesian Networks 07.07.16 Exercise Sheet 10, soccerBall.RTable, numberMatrix.RTable, facesEasy.RTable, Exercise10-1
(.ipynb, .html), Exercise10-2
(.ipynb, .html)
13.07.16 Continuation of 'Bayesian Networks', Intervention and Causality (will not be part of the exam) 14.07.16 Exercise Sheet 11
20.07.16 will not be held / end of semester 21.07.16 -
27.07.16 - 28.07.16 Final Exam Guidelines

Übungsbetrieb

  • Zur Vertiefung der Vorlesung werden 2-stündige Übungen angeboten, in denen die vorgestellten Verfahren weiter erläutert und an praktischen Beispielen veranschaulicht werden. Da es sich mitunter um Programmieraufgaben handelt, ist eine vorherige Vorbereitung des aktuellen Übungsblattes erwünscht um Fragen diesbezüglich besser beantworten zu können.

Klausur / Exam

  • Please note the guidelines for the final exam
  • Date: July 21th, 2016 July 28th, 2016, 4pm - 6pm
  • Location: Geschwister-Scholl-Platz 1, main building, room M 018 M 218
  • Registration will be available via UniWorX

Nützliche Links

  • Unter http://www.die-informatiker.net bieten Münchner Informatiker ein Diskussionsforum für euch. Dort können Fragen von allgemeinem Interesse gestellt werden und finden oft auch eine Antwort. Wir begrüßen diese Initiative, übernehmen aber keinerlei Verantwortung für den Inhalt.



Vorhergehende Semester

SS 16, SS 15, SS 14, SS 13, SS 12, SS 11, SS 10, SS 09, SS 08, SS 07, SS 06, SS 05, SS 04

blank