Programmierung
Programmierung
|
Administration •
Links •
Vorgehensmodelle •
NuGet •
Transformations •
MSBuild •
Raspberry •
Cheatsheets •
Git •
Mathematica
|
C♯
|
|
F♯
|
|
Python
|
Classes •
Loops •
Anonymous Types •
Lambda Expressions •
Queries (LINQ) •
Iterators (yield)
|
PHP
|
|
T-SQL / SQL Server
|
T-SQL Fundamantals
|
Select •
Programming •
Pitfalls •
Query from Multiple Tables •
Groups and Summaries •
Advanced Select •
Aggregation and Windowing •
Insert, Update, Delete •
Strings •
Date and Time •
Numbers •
Transactions, Locking, Blocking, Deadlock •
Tables •
Views •
Large Tables and Databases •
Indexes •
Stored Procedures •
User-Defined Functions and Types •
Triggers •
Error Handling •
Query Performance and Tuning •
Hints •
Index Tuning and Statistics •
XML •
Files, Filegroups, Integrity •
Backup •
Recovery •
Principals and Users •
Securables, Permissions, Auditing •
Objects and Dependencies
|
SQL Server Performance Tuning
|
Memory Performance Analysis •
Disk Performance Analysis •
CPU Performance Analysis •
Baseline Creation •
Query Performance Metrics •
Query Performance Analysis •
Index Architecture and Behavior •
Index Analysis •
Database Engine Tuning Advisor •
Key Lookups •
Statistics, Data Distributuon, and Cardinality •
Index Fragmentation •
Execution Plan Generation •
Execution Plan Cache Behavior •
Parameter Sniffing •
Query Recompilation •
Query Design Analysis •
Reduce Query Resource Use •
Blocking and Blocked Processes •
Causes and Solutions for Deadlocks •
Row-By-Row Processing •
Memory-Optimized OLTP Tables and Procedures •
Database Performance Testing •
Database Workload Optimization •
SQL Server Optimization Checklist
|
Service Broker
|
Message •
Contract •
Queue •
Service •
.NET Integration •
Route •
Security
|
|
Datatypes •
Unit Testing •
Dependency Injection •
Partitioning •
|
|
.NET
|
|
ASP.NET
|
|
Messaging
|
|
User Interface
|
|
Parallel Programming
|
|
ECMAScript
|
|
SharePoint
|
|
Microsoft CRM
|
Reporting and Dashboards •
SharePoint Integration •
Authentication •
Entity Handling •
Workflows •
Queries
|
Security
|
Forms Authentication •
Membership and Role Provider •
Zertifikate •
OAuth •
OpenID •
Windows Identity Foundation
|
Dateiformate
|
CSV •
Excel •
Word •
PDF •
Email
|
Azure
|
|
Muster
|
|
Powershell
|
|
Android
|
ROM Flashen •
Unit Testing •
Assistant
|
Machine Learning
|
|
Core Server
|
Hyper-V •
Active Directory User Groups •
Active Directory Domain Services •
Active Directory Federation Services •
DHCP •
IIS •
DNS •
RDP •
WSUS •
User Permissions •
IP •
SMB •
DHCP •
IPAM •
Sonstige
|
Bot Framework
|
Rich Messages •
|
Lernmethode
Supervised |
wird vorgegeben und Gewichte angepasst
|
Reinforcement |
Bewertung ob Ausgabe richtig oder falsch; ggf. Fehlerwert
|
Unsupervised |
Ausgabe wird nicht vorgegeben
|
Direct Design |
Gewichte werden manuell vorgegeben
|
Lernzeitpunkt
Incremental (online, adaptive)
|
Netz wird nach jedem Input angepasst
|
Batch (block, cumulated modification, epochal, offline)
|
Netz wird erst nach der Präsentation aller Eingaben angepasst
|
Lernprozesse
Veränderung der Gewichte
|
Erstellen/Beseitigen einer Verbindung
|
Erstellen/Beseitigen eines Neurons
|
Änderung der Propagierungsfunktion
|
Änderung der Aktivierungsfunktion
|
Modifikation des Schwellwerts eines Neurons
|
- Ausgaben zu Lerndatensatz
- Ausgaben zu Testdatensatz (ca. 10% von Lerndaten)
|
Hebb-Regel |
Delta-Regel |
Backpropagation |
Competive Learning
|
Lernverfahren
|
Gleichzeitige Aktivierung
|
• Vergleich ist/soll • Gradientenverfahren
|
• Backward-Pass • Gradientenverfahren
|
the winner takes it all
|
Lernart
|
supervised, unsupervised, oder reinforcement learning
|
supervised
|
supervised
|
unsupervised
|
Verwendung
|
Pattern Associator Auto Associator
|
• einfache Recurrent Networks • Jordan Netze
|
• kompetive Netze • konzeptuell in Kohonnetzen (Auto-Klassifizierer)
|
Vorteile
|
• Einfach • biologisch plausibel
|
• Einfach • einfache Implementierung
|
• mit Hidden-Units einsetzbar • höhere Mächtigkeit als Delta-Regel
|
• Unsupervised learnig • biologisch plausibel
|
Nachteile
|
• überlaufen von Werten • überlaufen von Gewichten • geringe Mächtigkeit
|
• nicht mit Hidden-Units einsetzbar • fragwürdige biologische Plausibilität • geringe Mächtigkeit
|
• fragwürdige biologische Plausibilität • lokale Minima
|
• einzelne Units können alle Inputmuster übernehmen ⇒ keine Kategorisierung
|
„what fires together wires together“
![{\displaystyle \Delta w_{ij}=\epsilon \,a_{i}\,a_{j}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dddf4f38d78921dcedbf1fbcf85b6533aaa48a2a)
(auch: Least Mean Square Regel, Widrow-Hoff-Regel)
Stellt sicher, dass die Lernveränderung proportional zum tatsächlichen Fehler ist.
![{\displaystyle \delta _{i}=a_{i,\,{\text{soll}}}-a_{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/28232ccca7403928d864a4bb6a7fdfe3b15ca7ca)
![{\displaystyle \Delta w_{ij}=\epsilon \,\delta _{i}\,a_{j}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2efa72ad681c41f37f92a29063e676527bc132c0)
- nicht für Netze mit Hidden Layer geeignet, da es sich um einen supervised Lernalgorithmus handelt
- Alternative: Backpropagation
- Wahl eines zufälligen Startpunktes
- Festsetzung eines Lernparameters
- Festlegung des Abbruchkriteriums
- Fixierung der maximalen Differenzveränderung
- Fixierung der maximalen Anzahl an Iterationen
- Schleife
- Berechnung des Gradienten
- Veränderung der Gewichte
- Forward-Propagation mit Delta-Regel
- Fehlerbestimmung
- Fehler wird mit Delta-Regel zurückgegeben
![{\displaystyle \Delta w_{ij}=\epsilon \cdot \delta _{i}\cdot a_{j}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/51ebadcb2a590c8eba77399860c564626627a49b)
- Output Units
![{\displaystyle \delta _{i}=f'(x_{i})\cdot \left(a_{i,soll}-a_{i}\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1402b3397becd33bae20b090e2bc47b3a3ab54c1)
- Input Units und Hidden Units
![{\displaystyle \delta _{i}=f'(x_{i})\cdot \sum _{l}\left(\delta _{l}\cdot w_{li}\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4a6760e3611174a60eeff5b57215fc65c6d4f70a)
Hierbei ist
die Ableitung der Aktivierungsfunktion
der Layer nach dem Layer ![{\displaystyle i}](https://wikimedia.org/api/rest_v1/media/math/render/svg/add78d8608ad86e54951b8c8bd6c8d8416533d20)
- im Gegensatz zu Backpropagation unsupervised und biologisch plausibel
- Problem: einzelne Inputs könnten alle Patterns repräsentieren; die maximale Stärke der Units muss begrenzt werden.
- Verfahren
- Erregung/Output berechnen
- Wettbewerb
- Entweder: Unit mit dem stärksten Input gewinnt
- Oder: Unit mit stärkstem Input hemmt benachbarte Units
- Gewichstadjustierung
- die Gewichte der Gewinner werden so modifiziert, dass sie eher dem Input gleichen:
![{\displaystyle \Delta w_{ij}=\epsilon \cdot \left(a_{j}-w_{ij}\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/62508d3357b51590ba0e4d63a1f3835089b46ec0)
|