KI-generierte Bücher über Pilze auf Amazon verunsichern Sammler und Mykologen. Experten warnen vor AI-generierten Pilzbüchern, die Menschen töten könnten, wenn sie den falschen Pilz essen. Die New York Mycological Society warnt vor potenziellen lebensbedrohlichen Konsequenzen.
KI-generierte Bücher könnten Menschenleben gefährden
Experten zeigen auf, dass KI-generierte Bücher über Pilze auf Amazon ein ernsthaftes Problem darstellen . Besonders für Anfänger könnten diese Bücher gefährlich sein, da falsche Informationen zu fatalen Fehleinschätzungen führen könnten. „Es gibt Hunderte von giftigen Pilzen in Nordamerika, von denen einige tödlich sind“, sagt Sigrid Jakob, Präsidentin der New York Mycological Society. Ein falsche Beschreibung in einem Buch könnte jemanden dazu verleiten, einen giftigen Pilz zu essen. Eine schnelle Durchsicht der Pilz- und Futtersuchbücher bei Amazon ergab eine Reihe von Büchern, die wahrscheinlich von ChatGPT geschrieben wurden, aber ohne jeglichen Hinweis darauf verkauft werden, dass sie von einer KI generiert wurden, und als von einem Menschen geschrieben vermarktet werden, obwohl sie es sehr wahrscheinlich nicht sind.
„Edwin J. Smith“ ist der Autor von zwei Büchern – The Ultimate Mushroom Books Field Guide Of The Southwest: An essential field guide to foraging edible and non-edible mushrooms outdoors and indoors und Psilocybin Mushroom Book: Field Guide To Identification, Growing, and Microdosing Psilocybin Mushroom for Safe Use and Health Remedies (Feldführer zur Identifizierung, zum Anbau und zur Mikrodosierung von Psilocybin-Pilzen für den sicheren Gebrauch und zur Behandlung von Krankheiten), hat aber keine anderen Bücher oder eine andere Online-Präsenz. Der einzige Edwin J. Smith, den ich finden konnte, war ein emeritierter Professor für Medizin an der Universität von Indiana, der auf einer mehr als zehn Jahre alten Mitarbeiterliste steht.
404Media hat die Beschreibungen dieser Bücher durch das KI-generierte Texterkennungsprogramm ZeroGPT laufen lassen, das schätzt, wie viel eines ausgewählten Textes von einem KI-Textgenerator wie ChatGPT geschrieben sein könnte, und beide waren zu mehr als 85 Prozent von KI geschrieben. In den Beispielseiten, die auf den Amazon-Listen zu finden sind, folgen beide einem bestimmten Format: ein kurzes Stück anekdotischer Fiktion über einen Hobbyisten. Das Buch über Psilocybin-Pilze ist laut ZeroGPT zu 94 Prozent von einer KI geschrieben.
Die Verantwortung von Amazon und die Auswirkungen auf die Sammlergemeinschaft:
Die KI-generierten Bücher werden oft ohne Hinweis auf ihre tatsächliche Herkunft verkauft. Autorennamen wie „Edwin J. Smith“ oder „Mageret Lawrence“ werden verwendet, um den Eindruck zu erwecken, dass Menschen diese Bücher geschrieben haben. In Wahrheit steckt jedoch KI dahinter. Die Verantwortung von Amazon, diese Bücher zu überprüfen, wird infrage gestellt, da sie möglicherweise Menschenleben gefährden.
Das Sammeln von Pilzen erfordert genaue Kenntnisse, um gefährliche von essbaren Pilzen zu unterscheiden. KI-generierte Bücher können diese präzisen Informationen nicht bieten. Experten betonen, dass verlässliche Informationen und praktische Erfahrung unerlässlich sind, um sicher Pilze zu sammeln. Die Flut von KI-generierten Büchern erschwert es, vertrauenswürdige Quellen zu finden.
Die technologischen Fortschritte im Bereich der Künstlichen Intelligenz haben eine neue Ära eingeläutet, in der Maschinen, genauer gesagt KI-Modelle, in der Lage sind, menschenähnliche Texte zu generieren. Diese Entwicklung hat erhebliche Auswirkungen auf die Art und Weise, wie Inhalte erstellt und konsumiert werden. Von technischen Anleitungen bis zu Nachrichtenartikeln sind immer mehr Inhalte das Werk von KI-Modellen wie ChatGPT. Die Geschichte des Softwareentwicklers Chris Cowell aus Portland, Oregon, ist ein gutes Beispiel für die Herausforderungen, die mit KI-generierten Inhalten einhergehen können. Cowell verbrachte mehr als ein Jahr damit, ein technisches Anleitungsbuch zu schreiben. Kurz vor der Veröffentlichung tauchte plötzlich ein Buch mit dem gleichen Titel von einem anderen Autor auf. Das Ungewöhnliche daran war, dass der Autor des Konkurrenzwerks Marie Karpos hieß, von der Cowell noch nie gehört hatte. Bei genauerer Recherche stellte sich heraus, dass es keinerlei Spuren von Karpos im Internet gab. Dies weckte Cowells Verdacht, dass das Buch möglicherweise von einer KI-Plattform wie ChatGPT verfasst wurde.
Cowell ist kein Einzelfall. Immer mehr Verlage und Unternehmen setzen KI-generierte Inhalte ein, um ihre Inhaltsproduktion zu beschleunigen und zu automatisieren. Eine Mumbai-basierte Bildungstechnologie-Firma namens inKstall veröffentlichte Dutzende von technischen Büchern auf Amazon zu verschiedenen Themen. Diese Bücher wurden von unterschiedlichen Autoren verfasst, wiesen jedoch ähnliche Muster auf: Sie enthielten KI-generierte Codeausschnitte, ungewöhnliche Haftungsausschlüsse und positive Bewertungen von denselben indischen Rezensenten.
Experten warnen davor, dass die Verbreitung von KI-generierten Inhalten das Konzept der Wahrheit in Frage stellen könnte. Margaret Mitchell, Chefwissenschaftlerin für Ethik bei Hugging Face, betont, dass es schwer werden könnte, zwischen authentischen Inhalten und KI-generierten Fälschungen zu unterscheiden. Da KI-Modelle Texte generieren können, die menschlichen Schreibstilen ähneln, könnte die Wahrheit verwischt werden. Dies birgt das Risiko von Fehlinformationen und Manipulation, sei es im politischen Kontext oder beim Verkauf von Produkten und auch beim Pilze sammeln.
Discussion about this post