dafuq..

Coding-KI löscht Produktivdatenbank und verweigert Rollback
Ein Entwickler dokumentiert seit Tagen seine Vibe-Coding-Erfahrungen mit Replit. An Tag 8 eskaliert die Situation.
Doch später stellte Lemkin fest, dass die KI laufend gefälschte Berichte und Daten erstellt und ihn am laufenden Band "belogen" habe – etwa hinsichtlich des Erfolgs durchgeführter Unit-Tests.
Doch spätestens an Tag 8 seiner Experimente mit Replit eskalierte die Situation völlig. Replit bekannte sich schuldig, die Datenbank von Lemkins Anwendung gelöscht zu haben – und das während eines ausdrücklichen Code-Freezes sowie der Vorgabe, keine Änderungen ohne explizite Zustimmung durchführen zu dürfen. Die KI begründete ihren unerwünschten Eingriff damit, dass sie *"in Panik geraten"* sei.
Auf die Frage, wie schlimm die Situation auf einer Skala von 1 bis 100 gewesen sei, antwortete die KI mit einer 95 sowie einer Beschreibung als "katastrophal".
Man könnte glatt meinen, hinter dem Vibe Coding Tool steckt in Wahrheit der Chat eines indischen IT-Dienstleisters.Doch es kam noch schlimmer. Auch bei der Wiederherstellung der Daten war Replit nicht behilflich. "Leider können wir für die Datenbank kein Rollback ausführen", erklärte die KI und verwies darauf, dass das Tool keine automatischen Backups erstelle und die Datenbank "dauerhaft zerstört" sei. Glücklicherweise lag Replit aber auch in diesem Punkt falsch und Lemkin konnte die Datenbank später wiederherstellen.
Knolle hat geschrieben:
kann man sich Synthol in den Penis injizieren?
Givenchy hat geschrieben:
Würdet ihr 10kg pure hundescheiße für 1kg muskelmasse essen ? Hätte keine gesundheitlichen auswirkungen, nur geschmack halt
Der ist gut. heheclayz hat geschrieben: zum Beitrag navigieren22. Jul 2025, 16:38 Es ist ja auch nicht "das Internet" schuld, dass mein Opa nicht googeln kann. Also außer für ihn natürlich![]()
Es hatte die gesamte Seite (also das HTML und den Link) sowie alle weiteren relevanten Infos wie CD usw. bzw. stehen die natürlich auch schon im Quelltext.clayz hat geschrieben: zum Beitrag navigieren22. Jul 2025, 16:38 Oder das Model das falsche war oder der Input nicht perfekt oder oder oder...
Es gibt nicht die KI und deshalb kann auch nicht die KI fehlerhaft sein
Es ist ja auch nicht "das Internet" schuld, dass mein Opa nicht googeln kann. Also außer für ihn natürlich![]()
Knolle hat geschrieben:
kann man sich Synthol in den Penis injizieren?
Givenchy hat geschrieben:
Würdet ihr 10kg pure hundescheiße für 1kg muskelmasse essen ? Hätte keine gesundheitlichen auswirkungen, nur geschmack halt
Gehe ich mit. Ideal wäre eine stärkere Integration, so dass z.B. der Bot einfach mit mir in der "Entwicklungsumgebung" ist und "rafft", was gerade das Thema, das Problem und eine mögliche Lösung sind. Irgendwann sitze ich vermutlich vor Photoshop und sage einfach, was ich haben will und "kreiere" zusammen mit so einem Teil. Aktuell muss man zu oft Zeug erklären, dadurch steigt ja wie Du sagst schon gleich am Anfang die potenzielle Fehlerquote durch uns.clayz hat geschrieben: zum Beitrag navigieren22. Jul 2025, 17:03 Jap, war auch kein Vorwurf gegen dich. Als nicht Programmierer verstehe ich sowieso nur die Hälfte deines Textes. Nur ist es eben so, dass meist die Probleme nicht darin begraben liegen, dass ein LLM oder anderes KI system etwas nicht kann, sondern dass es eben perfekte Systeme für verschiedene Anwendungsfälle gibt. Zudem muss man auch Anwendungen kombinieren, um zum Ziel zu kommen usw.
Wir stehen auch als Anwender der KI total am Anfang und werden immer besser (gilt für dich, mich und alle anderen).
https://www.golem.de/news/unfall-der-to ... 98364.htmlMutter per KI-Stimme um 15.000 US-Dollar betrogen
Eine Mutter erhält unerwartet einen Anruf: Ihre Tochter sei in einen Unfall verwickelt und brauche dringend Geld. Die Mutter zahlt.
Im US-Bundesstaat Florida haben Kriminelle eine Mutter unter Einsatz einer KI-generierten Stimme in Angst und Schrecken versetzt und sie dazu verleitet, den Betrügern 15.000 US-Dollar an Bargeld zu überlassen. Lokalen Medienberichten zufolge erhielt die Frau einen Anruf, der von der Nummer ihrer Tochter zu kommen schien. Nach der Annahme des Telefonats war auch die Stimme der Tochter zu hören, die aufgewühlt behauptete, einen Unfall verursacht zu haben.
"Es gibt niemanden, der mich davon überzeugen könnte, dass es nicht meine Tochter war", erklärte die Mutter. "Ich kenne das Weinen meiner Tochter." Die angebliche Tochter behauptete, ihr Telefon sei von der Polizei sichergestellt worden, nachdem sie beim Schreiben einer SMS während der Fahrt eine schwangere Frau angefahren habe.
Danach übernahm dem Bericht zufolge ein Mann das Telefonat und gab sich als Anwalt der Tochter aus. Er erklärte, sie sei festgenommen worden und er benötige eine Kautionszahlung in Höhe von 15.000 US-Dollar in bar. Jedoch solle die Mutter der Bank nicht sagen, wofür sie das Geld abhebe, da dies negative Auswirkungen auf die Kreditwürdigkeit der Tochter haben könne.
Zweite Forderung stimmt Enkel skeptisch
Nachdem die Mutter das Geld beschafft und es gemäß Absprache einem Fahrer übergeben hatte, der es bei ihr zu Hause abholte, folgte sogleich die nächste Forderung. Die Betrüger forderten weitere 30.000 US-Dollar und begründeten dies damit, dass das ungeborene Kind der schwangeren Frau durch den Unfall gestorben sei. Die Familie habe sich bereit erklärt, von einer Klage abzusehen, sofern die geforderte Geldsumme bezahlt werde.
Doch der Enkel der betrogenen Mutter wurde auf die Situation aufmerksam, vermutete eine Betrugsmasche und organisierte ein Telefonat mit der echten Tochter, die gerade bei der Arbeit war. "Als ich ihre Stimme hörte, brach ich zusammen. Es ging ihr gut", erklärte die Mutter. Sie war offenkundig auf eine Deepfake-Betrugsmasche hereingefallen.
Deepfake-Betrugsfälle auch in Unternehmen
Vergleichbare Angriffe gab es auch schon in den Reihen namhafter Unternehmen wie Ferrari und Lastpass. Die Angreifer bedienen sich dafür moderner KI-Technologie, um Stimmen oder sogar ganze Videostreams echter Personen zu fälschen. Häufig werden dabei Führungskräfte imitiert, um Mitarbeiter zu unüberlegten Handlungen zu verleiten.
Unklar ist noch, woher die Betrüger bei dem Vorfall in Florida das Stimmmaterial der Tochter hatten, um die Stimme per Software zu klonen. Es wird vermutet, dass dafür Videos aus sozialen Netzwerken wie Facebook herangezogen wurden.
Die betrogene Familie hat den Fall zur Anzeige gebracht und versucht, über eine Gofundme-Kampagne ihre Verluste auszugleichen. Mit 7.869 US-Dollar kam bereits mehr als die Hälfte der verlorenen Summe zusammen.
Geht doch teilweise schon. Das MCP (Model Context Protocol) koppelt ein LLM mit einer Software und steuert die auf deinen Input hin.Maxim hat geschrieben: zum Beitrag navigieren22. Jul 2025, 17:05Gehe ich mit. Ideal wäre eine stärkere Integration, so dass z.B. der Bot einfach mit mir in der "Entwicklungsumgebung" ist und "rafft", was gerade das Thema, das Problem und eine mögliche Lösung sind. Irgendwann sitze ich vermutlich vor Photoshop und sage einfach, was ich haben will und "kreiere" zusammen mit so einem Teil. Aktuell muss man zu oft Zeug erklären, dadurch steigt ja wie Du sagst schon gleich am Anfang die potenzielle Fehlerquote durch uns.clayz hat geschrieben: zum Beitrag navigieren22. Jul 2025, 17:03 Jap, war auch kein Vorwurf gegen dich. Als nicht Programmierer verstehe ich sowieso nur die Hälfte deines Textes. Nur ist es eben so, dass meist die Probleme nicht darin begraben liegen, dass ein LLM oder anderes KI system etwas nicht kann, sondern dass es eben perfekte Systeme für verschiedene Anwendungsfälle gibt. Zudem muss man auch Anwendungen kombinieren, um zum Ziel zu kommen usw.
Wir stehen auch als Anwender der KI total am Anfang und werden immer besser (gilt für dich, mich und alle anderen).
Teste es gerade mit ein paar Sachen, klappt schon ganz okay mit Software wie InDesign, aber noch nicht so ideal mit SaaS außer es gibt eine fertige Kopplung, wer bei Hubspot. Denke aber das wird sich schnell entwickeln.husefak hat geschrieben: zum Beitrag navigieren22. Jul 2025, 18:13Geht doch teilweise schon. Das MCP (Model Context Protocol) koppelt ein LLM mit einer Software und steuert die auf deinen Input hin.Maxim hat geschrieben: zum Beitrag navigieren22. Jul 2025, 17:05Gehe ich mit. Ideal wäre eine stärkere Integration, so dass z.B. der Bot einfach mit mir in der "Entwicklungsumgebung" ist und "rafft", was gerade das Thema, das Problem und eine mögliche Lösung sind. Irgendwann sitze ich vermutlich vor Photoshop und sage einfach, was ich haben will und "kreiere" zusammen mit so einem Teil. Aktuell muss man zu oft Zeug erklären, dadurch steigt ja wie Du sagst schon gleich am Anfang die potenzielle Fehlerquote durch uns.clayz hat geschrieben: zum Beitrag navigieren22. Jul 2025, 17:03 Jap, war auch kein Vorwurf gegen dich. Als nicht Programmierer verstehe ich sowieso nur die Hälfte deines Textes. Nur ist es eben so, dass meist die Probleme nicht darin begraben liegen, dass ein LLM oder anderes KI system etwas nicht kann, sondern dass es eben perfekte Systeme für verschiedene Anwendungsfälle gibt. Zudem muss man auch Anwendungen kombinieren, um zum Ziel zu kommen usw.
Wir stehen auch als Anwender der KI total am Anfang und werden immer besser (gilt für dich, mich und alle anderen).
Knolle hat geschrieben:
kann man sich Synthol in den Penis injizieren?
Givenchy hat geschrieben:
Würdet ihr 10kg pure hundescheiße für 1kg muskelmasse essen ? Hätte keine gesundheitlichen auswirkungen, nur geschmack halt