🚨 BREAKING: Princeton hat eine KI entwickelt, die in nur 36 Gesprächen von nahezu nutzlos zu hochgradig personalisiert wurde. Jedes Mal, wenn du einer KI sagst „das ist falsch“ oder sie dieselbe Frage zweimal stellst, weil sie den Punkt verpasst hat, ist diese Reaktion das wertvollste Feedback, das sie jemals erhalten könnte. Jedes heute gebaute KI-System ignoriert das völlig. Princeton hat ein System namens OpenClaw RL entwickelt, das dies behebt. Die Idee ist einfach: Wenn du eine KI korrigierst, lernt sie sofort aus dieser Korrektur. Keine Ingenieure beteiligt. Kein Retraining. Nur das Gespräch, das du bereits führst. Das Modell beobachtet, wie du nach jeder Antwort reagierst: > eine Wiederholung bedeutet, dass es versagt hat > eine flüssige Antwort bedeutet, dass es funktioniert hat Im Laufe der Zeit findet es genau heraus, was du willst, und passt sich entsprechend an. In ihren Tests: > ein KI-Assistent wurde in nur 36 Gesprächen von kaum nützlich zu hochgradig personalisiert > ein Bewertungsassistent lernte, wärmeres, detaillierteres Feedback nach nur 24 Interaktionen zu schreiben Es wurde besser, einfach indem es genutzt wurde. > Personalisierungspunktzahl vorher: 0.17 > nach 36 Gesprächen: 0.81 > kein Retraining, keine Ingenieure, keine Ausfallzeiten > funktioniert, während die KI noch mit dir spricht Jedes frustrierte „nein, das meinte ich nicht“ , das du jemals getippt hast, war eine kostenlose Lektion. Die KI hat es nur nie behalten. Bis jetzt.