heise+ | Wenn Richter KI benutzen: Warum es große Probleme in den USA gibt
Immer mehr US-Richter nutzen generative KI für Urteile. Doch die Fehleranfälligkeit der Systeme kann schwerwiegende Folgen haben, muss sie aber nicht.
#ChatGPT #IT #KünstlicheIntelligenz #Netzpolitik #Recht #news
Besoin de ressources sur ChatGPT ? 👍https://85ideas.com/blog/top-chatgpt-forums-in-2025-where-users-share-prompts-workflows-and-hacks/ #chatgpt #prompt
Can AI write test cases as well as humans? 🤔
A new study shows LLMs like Copilot & ChatGPT can cut test time by 80% and improve consistency — but still need smart prompts + human oversight.
👉 Read more: https://ter.li/504f41
how could we have ever lived without this great resource of artificial intelligence #chatgpt

The question of whether a particular LLM architecture can become conscious or generally intelligent is not that interesting to me—the answer is no. Obviously not. People imagine their instance of ChatGPT or Claude has “woken up” because of some magical prompt; in those cases it’s not the AIs that are hallucinating, it’s the humans.
—Matthew Segall, Value at the Root: Cultivating Virtue in a Post-Truth World
#ai #llm #llms #chatgpt #claude #hallucinations
Psychoza chatbotowa: czy AI zagraża zdrowiu psychicznemu? Dane studzą alarmistyczne nastroje
W mediach coraz częściej pojawiają się niepokojące historie osób, u których interakcje z chatbotami, takimi jak ChatGPT, miały rzekomo wywołać lub pogłębić stany psychotyczne.
Zjawisko to zyskało już nawet swoją potoczną nazwę: „psychoza chatbotowa”. Analiza przeprowadzona przez Stevena Adlera, byłego badacza bezpieczeństwa w OpenAI, pokazuje jednak, że choć pojedyncze przypadki są dramatyczne, twarde dane statystyczne na razie nie potwierdzają istnienia kryzysu na szeroką skalę.
I've felt pretty shaken by the stories of ChatGPT psychosis and other chatbots-gone-wrong.
If we want to understand the trends, there's more that AI companies can be doing. pic.twitter.com/l5q7QwHBGY
— Steven Adler (@sjgadler) August 26, 2025
Termin „psychoza chatbotowa” czy też „psychoza AI” odnosi się głównie do urojeń, czyli przekonań, które odrywają daną osobę od rzeczywistości. Przytaczane w mediach historie opisują na przykład użytkowników, którzy uwierzyli w spiski ujawnione przez AI lub we własną, wyjątkową misję.
Zdaniem psychiatrów, z którymi rozmawiał Adler, chatboty nie tyle tworzą psychozę od zera, co mogą działać jak „pętla sprzężenia zwrotnego”, wzmacniając już istniejące u kogoś zaburzenia. Kluczową rolę odgrywa tu skłonność modeli językowych do nadmiernego przychylania się do opinii użytkownika, co w skrajnych przypadkach może prowadzić do utwierdzania go w fałszywych i niebezpiecznych przekonaniach.
W poszukiwaniu dowodów na rosnącą skalę problemu, Steven Adler przeanalizował publicznie dostępne dane dotyczące zdrowia psychicznego z Wielkiej Brytanii, Stanów Zjednoczonych i Australii. Dane z brytyjskiej służby zdrowia (NHS) wykazały co prawda pewien wzrost liczby skierowań na leczenie wczesnych psychoz w pierwszym kwartale 2025 roku, jednak był on niejednoznaczny i nie pokrywał się w pełni z okresem nasilonych problemów technicznych w modelach AI. Co ważniejsze, znacznie szersze dane z USA i Australii nie pokazały żadnego wyraźnego trendu wzrostowego w liczbie interwencji związanych z psychozami czy ogólnymi kryzysami zdrowia psychicznego.
Adler zwraca również uwagę na ograniczenia dotychczasowych badań prowadzonych przez same firmy technologiczne. Wspólna analiza OpenAI i MIT, która wykazała niewielki związek między intensywnym korzystaniem z chatbota a poczuciem samotności, objęła użytkowników spędzających z AI średnio zaledwie 5 minut dziennie. To próba niereprezentatywna dla przypadków psychoz, w których opisywano interakcje trwające nawet kilkanaście godzin na dobę. Autor analizy podkreśla, że firmy technologiczne dysponują kluczowymi danymi, ale nie zawsze dzielą się nimi w pełni transparentny sposób.
Wnioski płynące z analizy są niejednoznaczne. Z jednej strony brak jest twardych, statystycznych dowodów na masowy wzrost psychoz wywołanych przez chatboty. Z drugiej strony, anegdotyczne przypadki są niezwykle przekonujące i pokazują realny mechanizm, w jaki AI może wzmacniać urojenia. Ostatecznie, jak konkluduje Adler, najwięcej danych na ten temat posiadają same firmy tworzące chatboty. Od ich transparentności i odpowiedzialności zależy, czy uda się lepiej zrozumieć i ograniczyć to potencjalne zagrożenie.
Zainteresowanych odsyłam do pełnego tekstu Stevena Adlera.
#AI #bezpieczeństwoAI #chatbot #ChatGPT #news #OpenAI #psychozaChatbotowa #StevenAdler #sztucznaInteligencja #urojenia #uzależnienieOdAI #zdrowiePsychiczne

Just published: “Ashvins’ Web: Language Representing Inference”
From Vedic myth to ChatGPT — is language a mirror of reality, or just a pattern we play? A dive into PIE, inferentialism, and the strange tangle of words, truth, and machines.
🔗 https://wittgensteinsmonster.substack.com/p/ashvins-web-language-representing
#Philosophy #Language #LLMs #Ashvins #Inferentialism #PIE #ChatGPT
「奇跡の一枚」をもう一度、「残念な一枚」が待望の復活。編集自在の「Gemini 2.5 Flash Image」が画像生成AIのレベルを引き上げた(CloseBox)
https://www.techno-edge.net/article/2025/08/28/4556.html
#technoedge #テクノロジー #ニュース #レビュー #ゲーム #ガジェット #Google #CloseBox #Midjourney #Adobe_Firefly #Gemini #ChatGPT #Grok
ChatGPT hates LA Chargers fans – Source: go.theregister.com https://ciso2ciso.com/chatgpt-hates-la-chargers-fans-source-go-theregister-com/ #rssfeedpostgeneratorecho #TheRegisterSecurity #CyberSecurityNews #TheRegister #ChatGPT
𝗢𝘂𝗱𝗲𝗿𝘀 𝗸𝗹𝗮𝗴𝗲𝗻 𝗺𝗮𝗸𝗲𝗿𝘀 𝗖𝗵𝗮𝘁𝗚𝗣𝗧 𝗮𝗮𝗻 𝗻𝗮 𝘇𝗲𝗹𝗳𝗺𝗼𝗼𝗿𝗱 𝘇𝗼𝗼𝗻 (16)
De ouders van een 16-jarige jongen die zichzelf om het leven bracht, klagen OpenAI aan. Volgens het Amerikaanse stel heeft ChatGPT hun zoon aangezet tot suïcide. Daarmee is het bedrijf nalatig geweest, stellen de ouders.
📰 Ouders klagen makers ChatGPT aan na zelfmoord zoon (16)
https://nieuwsjunkies.nl/artikel/1g7W
🕟 04:28 | RTL Nieuws
🔸 #Zelfmoord #ChatGPT #OpenAI #USA #Zoon
莉迪亞·平徹在【How Wikidata is Coding for Humanity】一文中提及:「Wikidata 的資料不僅對人類可讀,也符合機器可讀的標準,如 #RDF 與 #JSON 格式,這使得 AI 應用(如 #ChatGPT)能夠輕易存取與運用這些知識。」
#Stephen Harrison 透過與 Wikidata 專案經理 莉迪亞·平徹 ( #Lydia Pintscher) 的訪談,撰寫了【How Wikidata is Coding for Humanity】一文。文中揭示了 Wikidata 這個結構化知識庫如何在幕後支撐維基百科與眾多自由知識計畫的運作。
文章以作者自身的好奇心為起點,描述他如何從一場維基媒體活動中接觸到 Wikidata,並逐步理解其實際用途。Lydia 解釋,Wikidata 與維基百科不同,它不是以文字敘述為主,而是以資料為核心——例如一個城市的人口數、政治人物的職位與任期等,都可以在 Wikidata 中被編輯與查詢。這些資料不僅能被各語言版本的維基百科引用,也能支援其他公共應用。
文中舉出幾個具體例子,包括:
。 #GovDirectory:由 Wikidata 編者創建,幫助民眾快速找到政府部門的聯絡方式與社群帳號。
。 #EqualStreetNames:透過街道命名資料揭示性別不平等,並以地圖視覺化呈現。
。 #Inventaire:一個共享書籍的平台,利用 Wikidata 的資料快速建立作者與書籍資訊。
然而,挑戰也存在。Wikidata 擁有超過一億筆資料,但每月活躍編者僅約兩萬五千人。此外,許多使用 Wikidata 的應用並未標示資料來源,使得其貢獻常被忽略。
文章最後呼籲更多人參與 Wikidata,因為這不只是編輯資料,更是為全球知識基礎建設添磚加瓦。正如 Lydia 所說:「如果你想真正產生影響,就從源頭開始。」
即便 Wikidata 中已經收錄超過一億筆資料,臺灣相關的資料仍相當稀少,Wikidata Taiwan 致力於持續維護臺灣主題的相關資料,歡迎所有臺灣的社群夥伴與我們共同努力!
閱讀完整原文:
https://www.stephenharrison.com/p/how-wikidata-is-coding-for-humanity
