Transformer sind neuronale Netzwerke mit Self-Attention, die Kontextinformationen effizient verarbeiten. Sie bilden die Basis fΓΌr Modelle wie GPT oder BERT.