-Arbeit -Gesellschaft -Künstliche Intelligenz

A/B-Testing

Bandits in der Wildbahn - Vortrag auf der data2day 2017

Activation-Function

Der Lego-Baukasten des Maschinellen Lernens - heute mit sigmoidaler Aktivierungsfunktion

Aktivierungsfunktion

Der Lego-Baukasten des Maschinellen Lernens - heute mit sigmoidaler Aktivierungsfunktion

Algorithmik

Gradientenabstieg und Herleitung der Delta-Regel - die Mathematik hinter den Neuronalen Netzen

Mit Python und Numpy das Perzeptron verstehen

Neuronales Netz selbst entwickeln mit Python

Bandits in der Wildbahn - Vortrag auf der data2day 2017

Backpropagation

Bandit-Algorithmen

Bandits in der Wildbahn - Vortrag auf der data2day 2017

Bandits

Bandits in der Wildbahn - Vortrag auf der data2day 2017

Bias

DOT.AI

Delta-Regel

Gradientenabstieg und Herleitung der Delta-Regel - die Mathematik hinter den Neuronalen Netzen

Diskrimierung

Disruption

E-Commerce

Bandits in der Wildbahn - Vortrag auf der data2day 2017

Echtzeitoptimierung

Bandits in der Wildbahn - Vortrag auf der data2day 2017

Geschenk

Gesellschaft

Gradient Descent

Der Lego-Baukasten des Maschinellen Lernens - heute mit sigmoidaler Aktivierungsfunktion

Gradientenabstieg

Der Lego-Baukasten des Maschinellen Lernens - heute mit sigmoidaler Aktivierungsfunktion

Hidden Layer

Hype

Jupyter

Bandits in der Wildbahn - Vortrag auf der data2day 2017

Lernen

Gradientenabstieg und Herleitung der Delta-Regel - die Mathematik hinter den Neuronalen Netzen

Mit Python und Numpy das Perzeptron verstehen

Neuronales Netz selbst entwickeln mit Python

Lineare Regression

Gradientenabstieg und Herleitung der Delta-Regel - die Mathematik hinter den Neuronalen Netzen

Logistische Regression

Der Lego-Baukasten des Maschinellen Lernens - heute mit sigmoidaler Aktivierungsfunktion

Loss-Function

Der Lego-Baukasten des Maschinellen Lernens - heute mit sigmoidaler Aktivierungsfunktion

Loss-Funktion

Der Lego-Baukasten des Maschinellen Lernens - heute mit sigmoidaler Aktivierungsfunktion

Maschinelles Lernen

Gradientenabstieg und Herleitung der Delta-Regel - die Mathematik hinter den Neuronalen Netzen

Mit Python und Numpy das Perzeptron verstehen

Neuronales Netz selbst entwickeln mit Python

Datenschätze im E-Commerce - der Fachtag 2017 bei neuland

Mehrschichtig

Neuronales Netz

Gradientenabstieg und Herleitung der Delta-Regel - die Mathematik hinter den Neuronalen Netzen

Mit Python und Numpy das Perzeptron verstehen

Neuronales Netz selbst entwickeln mit Python

Python

Gradientenabstieg und Herleitung der Delta-Regel - die Mathematik hinter den Neuronalen Netzen

Mit Python und Numpy das Perzeptron verstehen

Neuronales Netz selbst entwickeln mit Python

Bandits in der Wildbahn - Vortrag auf der data2day 2017

Reinforcement Learning

Bandits in der Wildbahn - Vortrag auf der data2day 2017

Tutorial

Neuronales Netz selbst entwickeln mit Python

Verlustfunktion

Der Lego-Baukasten des Maschinellen Lernens - heute mit sigmoidaler Aktivierungsfunktion