ZurΓΌck

Transformer-Modell

Transformer sind neuronale Netzwerke mit Self-Attention, die Kontextinformationen effizient verarbeiten. Sie bilden die Basis fΓΌr Modelle wie GPT oder BERT.

A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z