"Selbst Grenzmodelle haben Schwierigkeiten, über die Vortrainingsprioritäten hinaus zu aktualisieren, egal wie überzeugend die neuen Beweise sind." Wir bilden Doktoranden aus, um dies zu tun! Können Transformer das tun, ohne ihre Gewichte zu ändern?