Geld sparen und das Forum unterstützen bei unseren Partnern. Jetzt neu: Peak


Sciencethread Training

Allgemeine Fragen zum Thema Bodybuilding- und Fitnesstraining.
Antworten
Benutzeravatar
Tinker
vielleicht auch Oleg?
Beiträge: 2767
Registriert: 10. Mär 2023, 10:10
Ich bin: auf Wohlfühldosis

Re: Sciencethread Training

Ist gut jetzt.
Sein hormonelles Umfeld dem Zufall zu überlassen ist grob fahrlässig.
Martin97
Lounger
Beiträge: 409
Registriert: 21. Aug 2024, 19:34

Re: Sciencethread Training

Jan hat geschrieben: zum Beitrag navigieren21. Mai 2025, 06:14
Martin97 hat geschrieben: zum Beitrag navigieren21. Mai 2025, 05:41
Jan hat geschrieben: zum Beitrag navigieren20. Mai 2025, 21:46

ChatGPT hat in Diskussionen nichts verloren, weil es angeblich Fakten erfindet? Aha – und das ist bei Foren, Zeitungen und selbst wissenschaftlichen Arbeiten anders? Bro, Studien werden zigtausend Mal widerlegt, Bücher enthalten Fehler, und selbst renommierte Professoren verbreiten manchmal veralteten Quatsch mit Überzeugung…

Das Problem liegt nicht primär in der Quelle, sondern im Umgang damit. Wer erwartet, dass ein KI-Modell ohne kritische Prüfung die Realität perfekt abbildet, erwartet auch, dass ein Lexikon mitdenken kann. Man muss schon ein Mindestmaß an Verständnis mitbringen, wie solche Modelle funktionieren – und dann kann man sie auch sinnvoll nutzen: Als Impulsgeber, Recherchehelfer, Diskussionspartner oder Ideenverstärker.

Ich mag es gerne meine Texte damit sprachlich, grammatikalisch oder auch inhaltlich aufzuwerten/erweitern, würde aber nie etwas wiedergeben, wo ich nicht auch dahinter stehe.
► Text anzeigen
Wenn man Chatgpt für eine Diskussion braucht, zeigt es doch nur, dass man keinerlei Input hat (das Wissen fehlt) und man an der Diskussion nicht teilnehmen sollte. Man kann doch nicht mit Informationem argumentieren die man nicht selbst überprüft hat.


Die Grundlage für eine sinnvolle Diskussion ist eine solide Argumentationsbasis. Wie will man etwas verdeitigen, von dem man ohne Chatgpt keine Ahnung hat?
Ich kann dir mit Chatgpt zu jeden erfundenen Schwachsinn einen KI Text posten.
Also eine sinnvolle Basis für eine Diskussion wäre erstmal zu lesen und verstehen… Ich habe es vorher eigentlich bereits ausgeführt und es scheint, als hättest du es nicht verstanden. Siehst du, erster Vorteil von einem Tool, welches mir nun hilft, die Sache nochmals zu verdeutlichen, ohne den Inhalt zu verlieren:

Du behauptest sinngemäß: „Wer ChatGPT in Diskussionen braucht, hat keinen eigenen Input und sollte nicht mitreden.“
Aber das ist eine ziemlich einfache Schwarz-Weiß-Malerei. Nach der Logik dürfte niemand mitdiskutieren, der nicht jedes Argument aus dem Kopf kennt oder jedes Detail selbst überprüft hat!? Sorry, aber so funktioniert Wissen nicht…

Wir alle greifen auf Quellen zurück – ob’s Bücher, Studien, Artikel, Videos, Experten oder eben eine KI ist. Kein Mensch kann jedes Thema komplett durchdrungen haben. Der Unterschied liegt nicht in der Quelle, sondern im Umgang damit. Wer blind alles übernimmt – ob von ChatGPT oder aus nem YouTube-Video – hat’s halt nicht verstanden. Aber wer reflektiert, prüft und daraus was Eigenes macht, nutzt Tools einfach sinnvoll.

Du sagst auch: „Wie will man etwas verteidigen, von dem man ohne ChatGPT keine Ahnung hat?“ – aber ganz ehrlich: So könnte man auch fragen, wie jemand ein historisches Thema verteidigen will, über das er nur durch Bücher oder Vorlesungen was gelernt hat. Soll er erst mal 20 Jahre in der Vergangenheit leben, um mitreden zu dürfen? Macht keinen Sinn.

Und dass man mit ChatGPT zu jedem Unsinn Texte generieren kann – klar. Aber das kannst du mit Rhetorik, Google oder ’nem guten Schreibstil genauso. Das sagt mehr über den Nutzer aus als über das Werkzeug.

Wie bereits geschrieben: Ich nutze ChatGPT z. B. gerne, um Gedanken zu sortieren, Argumente zu strukturieren oder Texte klarer zu formulieren. Am Ende filter ich das aber selbst, bring meine eigene Sicht rein und steh zu dem, was ich schreibe. Das ist doch genau das, worauf’s ankommt.

Ist im sonstigen Leben auch so… wenn du irgendwo ein Werkzeug nutzt, heißt das nicht, dass du keinen Plan hat – im Gegenteil: Wer Tools sinnvoll einsetzt, zeigt, dass er weiß, wie man effizient denkt.

So und mehr werde ich dazu nun nicht mehr sagen.
Wissenschaftliches Arbeiten auf einer Uni mit Chatgpt gleichsetzen ist genau mein Humor :D
Wieso überhaupt ich jetzt mit dir in diesem Thread diskutiere ist mir ehrlich gesagt ein Rätsel. Bin hier eh nicht aktiv bzw. tragr nie etwas wissenschaftliches bei. Gibt sicher einen Spam Thread wo wir und über Chatgpt ausdiskutieren können.
Benutzeravatar
Jan
Edler Spender
Beiträge: 1598
Registriert: 13. Mär 2023, 07:21
Geschlecht: m
Körpergröße: 188
Körpergewicht: 120
KFA: 15
Sportart: BB
Squat: 0
Bench: 0
Deadlift: 0
Ich bin: kontrovers

Re: Sciencethread Training

Martin97 hat geschrieben: zum Beitrag navigieren21. Mai 2025, 06:41
Jan hat geschrieben: zum Beitrag navigieren21. Mai 2025, 06:14
Martin97 hat geschrieben: zum Beitrag navigieren21. Mai 2025, 05:41

Wenn man Chatgpt für eine Diskussion braucht, zeigt es doch nur, dass man keinerlei Input hat (das Wissen fehlt) und man an der Diskussion nicht teilnehmen sollte. Man kann doch nicht mit Informationem argumentieren die man nicht selbst überprüft hat.


Die Grundlage für eine sinnvolle Diskussion ist eine solide Argumentationsbasis. Wie will man etwas verdeitigen, von dem man ohne Chatgpt keine Ahnung hat?
Ich kann dir mit Chatgpt zu jeden erfundenen Schwachsinn einen KI Text posten.
Also eine sinnvolle Basis für eine Diskussion wäre erstmal zu lesen und verstehen… Ich habe es vorher eigentlich bereits ausgeführt und es scheint, als hättest du es nicht verstanden. Siehst du, erster Vorteil von einem Tool, welches mir nun hilft, die Sache nochmals zu verdeutlichen, ohne den Inhalt zu verlieren:

Du behauptest sinngemäß: „Wer ChatGPT in Diskussionen braucht, hat keinen eigenen Input und sollte nicht mitreden.“
Aber das ist eine ziemlich einfache Schwarz-Weiß-Malerei. Nach der Logik dürfte niemand mitdiskutieren, der nicht jedes Argument aus dem Kopf kennt oder jedes Detail selbst überprüft hat!? Sorry, aber so funktioniert Wissen nicht…

Wir alle greifen auf Quellen zurück – ob’s Bücher, Studien, Artikel, Videos, Experten oder eben eine KI ist. Kein Mensch kann jedes Thema komplett durchdrungen haben. Der Unterschied liegt nicht in der Quelle, sondern im Umgang damit. Wer blind alles übernimmt – ob von ChatGPT oder aus nem YouTube-Video – hat’s halt nicht verstanden. Aber wer reflektiert, prüft und daraus was Eigenes macht, nutzt Tools einfach sinnvoll.

Du sagst auch: „Wie will man etwas verteidigen, von dem man ohne ChatGPT keine Ahnung hat?“ – aber ganz ehrlich: So könnte man auch fragen, wie jemand ein historisches Thema verteidigen will, über das er nur durch Bücher oder Vorlesungen was gelernt hat. Soll er erst mal 20 Jahre in der Vergangenheit leben, um mitreden zu dürfen? Macht keinen Sinn.

Und dass man mit ChatGPT zu jedem Unsinn Texte generieren kann – klar. Aber das kannst du mit Rhetorik, Google oder ’nem guten Schreibstil genauso. Das sagt mehr über den Nutzer aus als über das Werkzeug.

Wie bereits geschrieben: Ich nutze ChatGPT z. B. gerne, um Gedanken zu sortieren, Argumente zu strukturieren oder Texte klarer zu formulieren. Am Ende filter ich das aber selbst, bring meine eigene Sicht rein und steh zu dem, was ich schreibe. Das ist doch genau das, worauf’s ankommt.

Ist im sonstigen Leben auch so… wenn du irgendwo ein Werkzeug nutzt, heißt das nicht, dass du keinen Plan hat – im Gegenteil: Wer Tools sinnvoll einsetzt, zeigt, dass er weiß, wie man effizient denkt.

So und mehr werde ich dazu nun nicht mehr sagen.
Wissenschaftliches Arbeiten auf einer Uni mit Chatgpt gleichsetzen ist genau mein Humor :D
Wieso überhaupt ich jetzt mit dir in diesem Thread diskutiere ist mir ehrlich gesagt ein Rätsel. Bin hier eh nicht aktiv bzw. tragr nie etwas wissenschaftliches bei. Gibt sicher einen Spam Thread wo wir und über Chatgpt ausdiskutieren können.
Zum Zeitpunkt wo ich meinen ersten Master geschrieben habe, ging das (leider) noch nicht… bald werde ich aber meinen zweiten Master verfassen dürfen, dann werde ich ganz sicher darauf zurückgreifen. Kann dir dann gerne berichten, wenn du willst😉

Und ja, wir sollten die Diskussion hier nicht weiter vertiefen - bin bereits kurz vor einer Sperre… 😶‍🌫️

Peace und out.
Wenn’s gut klingt, war’s KI. Wenn’s Sinn ergibt, war’s ich.
Benutzeravatar
Ebiator
Battlemaster Andi
Beiträge: 6135
Registriert: 3. Mär 2023, 18:12
Wohnort: Ludwigsburg
Trainingsbeginn: 2000
Körpergröße: 185
Körpergewicht: 85
KFA: 5
Sportart: Bodybuilding
Squat: 190
Bench: 142
Deadlift: 220
Ich bin: Pro, Bro

Re: Sciencethread Training

Hinweis von Moderator Ebiator

Obacht, Ansage!
An sich geht es in diesem Thread um Trainingswissenschaft und nicht um KI, aber ich möchte diese Diskussion trotzdem nutzen, um eine allgemeine Ansage zu machen.
Jan hat geschrieben: zum Beitrag navigieren20. Mai 2025, 20:12 Was hast du gegen ChatGPT? Macht nichts anderes als das was du manuell machst (betreibt Recherche, berücksichtigt Studien und bekannte Fakten), in 99% der Fälle sogar deutlich besser…
Das ist eine eklatante Fehleinschätzung. Das Problem ist, dass ChatGPT Informationen "blind" zusammenträgt, ihm aber die praktische Erfahrung, Intuition und das Fachwissen fehlt, um diese Informationen einzuordnen, abzuwägen und es noch nicht mal in der Lage ist zu erkennen, wenn sich die gesammelten Informationen in sich widersprechen. Deshalb sind die Ergebnisse oftmals geradezu haarsträubend.

So gehören die von ChatGPT erstellten Trainingspläne, die ich bisher gesehen habe, mit zum Schlechtesten was ich bis dahin gesehen habe.

Ein Kumpel von mir hat sich sogar einen EP von ChatGPT erstellen lassen, mit der Zielvorgabe, dass er in 2 Monaten 20 Kg verlieren möchte. CGPT hat daraufhin ermittelt, dass er dazu ein tägliches Defizit von 140 kcal erreichen soll. Das ist halt mal beinahe um Faktor 10 falsch. Auch die Makroverteilung war jenseits von gut und böse.

Und sogar in der Diskussion auf den letzten Seiten hat sich gezeigt, dass ChatGPT keine Ahnung hat. Ich verstehe sogar, warum CGPT metabolischen Stress für einen Wachstumstreiber hält. Das war lange eine verbreitete Theorie und es gibt auch Studien von durchaus renommierten Wissenschaftlern, die zu diesem Ergebnis kommen. Aber neuere Erkenntnisse haben eben klar gezeigt, dass dem nicht so ist. Auch dazu haben wir übrigens einen Artikel, in dem du auch massig Studien findest @Jan. Hier kann die KI eben nicht erkennen, dass Ergebnisse überholt und widerlegt sind, sondern nimmt einfach an, dass das stimmen muss weil es viele Texte dazu gibt. Wie man auf die Idee kommen kann, Muskelermüdung wäre per se ein Wachstumsfaktor ist mir hingegen schleierhaft.

Ein anderes Beispiel wäre dein "Argument" dass man sich im TRaining beeilen sollte weil Schoenfeld 2014, lol. Wenn du eine Quellenangabe in einer wissenschaftlichen Arbeit so angibst, wird das mit deinem zweiten Master eher nichts. Ich weiß aber, worauf sich die KI bezieht, und zwar das hier:

https://pubmed.ncbi.nlm.nih.gov/24714538/

Was aber mal wieder missverstanden wurde ist, dass hier nie behauptet wurde, dass mehr Volumen in kurzer Zeit zu mehr Wachstum führt, sondern dass das Gesamtvolumen in einem bestimmten Zeitfenster, hier meist eine Woche, ein wichtiger Faktor ist. Semantische Fehldeutung, die hier eben zu einem falschen Schluss geführt hat.

Man könnte diese Liste nun unendlich lange weiterführen, aber ich denke es sollte klar sein, dass ChatGPT einfach keine Ahnung hat von Trainigswissenschaften und deshalb ein furchtbarer Ratgeber ist. Und eben nicht "besser als 99,9%".

Und ganz ehrlich, das ist auch gut so, weil KI ansonsten schon jetzt die Existenz von Zigtausenden Coaches und Experten bedrohen würde.

Und natürlich hat@ Piotr Recht wenn er sagt, dass man KI durchaus dazu trainieren kann auch brauchbare Ergebnisse zu liefern. Nur muss man dazu eben schon vorab einiges an Fachwissen mitbringen und erkennen, was falsch und richtig ist. Und an dem Punkt kann man sich dann CHatGPT ohnehin sparen.

Aber es gibt einen zweiten, wesentlichen Punkt, der mir fast noch wichtiger ist: Einer der wenigen Vorteile, die Foren wie diese gegenüber sozialen Medien haben ist, dass hier echte Menschen mit echter Erfahrung miteinander diskutieren. Im Gegnsatz zu SM, wo wir vermutlich bald die Situation haben, dass sich Bots mit Bots unterhalten. Deshalb prophezeien manche Experten schon eine Renaissance von Foren, weil die Leute es satt haben.

Und speziell Threads wie diese dienen dazu, dass Leute sich über ihre Erkenntnisse, ihre Erfahrungen und ihr mit Mühe erworbenes Wissen austauschen können. Hier mit Argumenten aus der Konserve bzw. KI zu kommen, führt den ganzen Sinn dieser Threads ad absurdum und nimmt uns den Vorteil, dass die Beiträge hier von echten Menschen kommen.

Lange Rede kurzer Sinn: Beiträge, die von einer KI erstellt wurden sind nicht echt, seelenlos und zerstören den Kern solcher Foren und eines realen Austausches im Internet allgemein. Sogar unabhängig davon, ob sie richtig sind oder nicht.

Mir ist ein echter, selbst erdachter Beitrag 1000 Mal lieber, selbst wenn er fehlerhaft ist. Aber dann merkt man wenigstens, dass sich jemand Gedanken dazu macht und man kann anhand dieser Fehleinschätzung eine Diskussion starten und seine eigenen Argument darlegen. DAS macht die Kommunikation zwischen Menschen aus.

Hinweis von Moderator Ebiator

Und deshalb wird es ab jetzt beim offensichtlichen Einsatz von KI, zumindest in Threads wie diesem, erst freundliche Ermahungen und später Verwarnungen und sogar sperren geben. Das braucht niemand und das hört jetzt auf. Wem sas nicht passt, kann sich ja zukünftig gleich mit Chatbots unterhalten
Antworten