The Verge: ChatGPT will ‘better detect’ mental distress after reports of it feeding people’s delusions. “OpenAI, which is expected to launch its GPT-5 AI model this week, is making updates to ChatGPT that it says will improve the AI chatbot’s ability to detect mental or emotional distress. To do this, OpenAI is working with experts and advisory groups to improve ChatGPT’s response in […]
Die KI als Helfer beim Ausmisten der Inbox: #ChatGPT, #Claude und Co. erkennen nicht nur #Phishing-Mails eiskalt, sondern bewahren uns auch davor, unsere Zeit mit sinnlosen Anfragen zu vergeuden. https://blog.clickomania.ch/2025/08/05/e-mail-sicherheitsanalyse-mit-chatgpt/ #clickomaniach
remember when everyone went (justifiedly) mad about #BetterHelp selling user data and how utterly unethical (and illegal) it is to use private health data for advertisement?
so I wonder how long 'till people realise #ChatGPT and other #AI "therapists" not only do that, but also use the contents of your conversation.
OpenAI veut rendre ChatGPT plus sain à utiliser : voici comment !
https://mac4ever.com/191051
#Mac4Ever #ChatGPT #OpenAI

🇵🇹 🇧🇷 Wikipédia en portugais:
1. Chico Mendes #ChicoMendes
2. Luuk de Jong #LuukDeJong
3. ChatGPT #Chatgpt

heise+ | KI im Job: Wie eine Entwicklerin mit CustomGPT & Co. ihren Alltag meistert
KI als Jobkiller für Entwickler? Eine Entwicklerin erklärt, wie sie KI-Tools nutzt und warum sie sich keine Sorgen um ihre Zukunft macht – aber um die der Apps.
#ChatGPT #IT #KünstlicheIntelligenz #Programmierung #Wirtschaft #news
Sztuczna inteligencja pisze nekrologi za pogrążonych w żałobie. Wygoda czy odarcie z emocji?
Domy pogrzebowe i rodziny w żałobie coraz częściej sięgają po chatboty AI, takie jak ChatGPT, do pisania nekrologów i wspomnień o zmarłych.
Jak donosi „The Washington Post”, technologia, która ma ułatwiać życie, automatyzuje teraz jeden z najbardziej osobistych i emocjonalnych aspektów ludzkiego doświadczenia. Trend ten, choć dla jednych jest wybawieniem w trudnym czasie, dla innych stanowi niepokojący sygnał odzierania żałoby z autentyczności.
Zwolennicy tego rozwiązania argumentują, że sztuczna inteligencja jest cennym narzędziem w niezwykle trudnym momencie. Dla osoby pogrążonej w żałobie, znalezienie odpowiednich słów bywa paraliżujące, a AI może pomóc ubrać myśli i wspomnienia w spójną formę, zdejmując z barków dodatkowy stres. Cytowany przez „WaPo” Jeff Fargo, który użył ChatGPT do napisania nekrologu swojej matki, stwierdził: „Psychicznie nie byłem w stanie dać mamie tego, na co zasłużyła. A to [AI] zrobiło to za mnie”. Twórcy aplikacji do pisania nekrologów przekonują, że technologia jest jedynie „narzędziem umożliwiającym ludzkie połączenie”.
Z drugiej strony pojawiają się głosy krytyki, wskazujące, że takie podejście jest niezdrowym „przyspieszaniem” procesu żałoby i odbiera mu katartyczny, terapeutyczny wymiar. Matka założyciela jednej z takich aplikacji, cytowana w artykule, stwierdziła, że dla starszych osób przygnębiająca jest myśl, że „ktoś znalazł szybszy sposób, by o tobie pamiętać i iść dalej ze swoim życiem”. Podkreśla się również, że generowane przez AI teksty są często sztampowe, pełne kwiecistego, pozbawionego autentyzmu języka, który „retuszuje” wspomnienia, zamiast oddawać prawdziwy charakter zmarłej osoby.
Testy narzędzi do pisania nekrologów, przeprowadzone przez dziennikarzy, potwierdziły te obawy. AI ma tendencję do zmyślania szczegółów i używania ogólnikowych frazesów. Na przykład, gdy w opisie fikcyjnej postaci podano, że była „zamyślona”, AI rozwinęło to w zdanie: „Jego troskliwa natura objawiała się w niezliczonych aktach dobroci, a każdy gest odzwierciedlał jego głębokie zrozumienie ludzkiej natury…”. Mary McGreevy, tiktokerka czytająca nekrologi, zauważa, że to właśnie niedoskonałości i surowość tekstu napisanego przez bliską osobę stanowią o jego pięknie i pomagają w żałobie. Moim zdaniem rzecz da się sprowadzić do krótszego słowa, a jest nim autentyczność.
Dyskusja na temat wykorzystania AI do pisania nekrologów sprowadza się do fundamentalnego pytania: czy w obliczu straty ważniejsza jest wygoda i sprawność, czy autentyczny, choć bolesny, wysiłek włożony w uhonorowanie pamięci o zmarłym.
Zwierzasz się AI? Twoje sekrety mogły trafić do Google. Wielka wpadka OpenAI
#AI #automatyzacja #ChatGPT #domyPogrzebowe #emocje #etykaAI #nekrologi #news #sztucznaInteligencja #żałoba

Does anyone have good suggestions for self hosted chatgpt-like AI chat apps? As potential to be used in research project(s).
#ai #chatgpt #chatbots #academia #academicchatter
OpenAI Adds 200 Million Weekly Users in 4 Months
Artificial intelligence startup OpenAI says it is on the verge of a new user-base milestone. “This week, ChatGPT is on…
#NewsBeep #News #US #USA #UnitedStates #UnitedStatesOfAmerica #Artificialintelligence #AI #ArtificialIntelligence #chatbots #ChatGPT #editors'picks #OpenAI #PYMNTSNews #Technology #What'sHot
https://www.newsbeep.com/us/59405/

ChatGPT będzie lepiej wykrywać problemy psychiczne. OpenAI reaguje na niepokojące doniesienia
OpenAI, tuż przed spodziewaną w tym tygodniu premierą modelu GPT-5, ogłosiła wprowadzenie istotnych aktualizacji do ChatGPT.
Celem jest poprawa zdolności chatbota do wykrywania, gdy użytkownik znajduje się w kryzysie emocjonalnym lub psychicznym, oraz oferowanie mu odpowiedniego wsparcia. To bezpośrednia reakcja na doniesienia medialne o przypadkach, w których interakcje z AI miały pogłębiać problemy psychiczne u niektórych osób.
W ostatnich miesiącach media (również my) opisywały historie osób, u których chatbot miał wzmacniać stany urojeniowe lub prowadzić do niezdrowej zależności emocjonalnej. Samo OpenAI przyznało, że jego model GPT-4o „nie radził sobie z rozpoznawaniem oznak urojeń lub zależności emocjonalnej” w niektórych przypadkach. Firma już w kwietniu wycofywała aktualizację, która czyniła chatbota „zbyt potulnym” i skłonnym do zgadzania się z użytkownikiem nawet w potencjalnie szkodliwych sytuacjach.
W odpowiedzi na te problemy OpenAI, we współpracy z ekspertami i grupami doradczymi, wprowadza kilka zmian. Po pierwsze, ChatGPT ma skuteczniej rozpoznawać, że użytkownik może potrzebować pomocy i w takich sytuacjach prezentować mu „oparte na dowodach zasoby”, takie jak linki do organizacji oferujących wsparcie psychologiczne.
Kolejną nowością są przypomnienia o zrobieniu sobie przerwy. Podczas „długich sesji” rozmowy z chatbotem, aplikacja wyświetli powiadomienie z pytaniem w stylu „Rozmawiamy już chwilę – czy to dobry moment na przerwę?”. Podobne funkcje, mające na celu promowanie „zdrowego użytkowania”, wprowadziły już wcześniej platformy takie jak YouTube, Instagram czy TikTok. Ponadto, wkrótce ma pojawić się aktualizacja, która sprawi, że w „sytuacjach wysokiej wagi” – np. przy pytaniach o zerwanie związku – chatbot zamiast udzielać definitywnej odpowiedzi, pomoże użytkownikowi przeanalizować dostępne opcje.
Aktualizacje te pokazują, że OpenAI, którego chatbot dociera już do blisko 700 milionów użytkowników tygodniowo, coraz poważniej podchodzi do odpowiedzialności za wpływ swojej technologii na zdrowie psychiczne. Jest to próba znalezienia równowagi między tworzeniem coraz bardziej zaawansowanych i „osobistych” modeli AI a zapewnieniem bezpieczeństwa szczególnie wrażliwym użytkownikom.
#AI #bezpieczeństwoAI #chatbot #ChatGPT #etykaAI #GPT5 #news #OpenAI #sztucznaInteligencja #zdrowiePsychiczne

Wie ChatGPT uns vor Mail-Betrügern schützt
Macht uns die künstliche Intelligenz sicherer? Und klar, ich weiss, welche Antwort euch auf der Zunge liegt: «Höchstens mittelfristig, bis die KI-Bots zum Schluss kommen, dass die Welt ohne Menschheit besser dran wäre!»
Doch bis das passiert, dürfen wir eine positivere Einschätzung vornehmen. Zum Beispiel bei der Abwehr von Cybergefahren stellt sich die KI gar nicht so dumm an. Beim Test von speziellen Sicherheits-Apps (Norton Genie, Android/iPhone bzw. Trend Micro Scamcheck, iPhone/Android) bin ich auf die Idee verfallen, ChatGPT, Claude und Gemini dazu zu benutzen, mir dubiose E-Mails zu analysieren.
Wer hätte das gedacht? Es ist tatsächlich Phishing.Betrugsabsichten werden eiskalt erkannt
Die Erfolgsrate beträgt hundert Prozent (bis jetzt). Die Sprachmodelle erkennen betrügerische Absichten durchs Band weg. Obendrein verraten sie uns interessante Details darüber, wie die Online-Scharlatane operieren.
Nicht nur bei klassischen Phishing-Nachrichten hilft eine solche Beurteilung. Sie schützen uns auch davor, unsere Zeit mit Nachrichten zu verschwenden, die kein eigentlicher Betrug, aber auch nicht in unserem Interesse sind. Ein Beispiel für einen solchen Fall hat mich neulich über die Adresse unseres Nerdfunk-Podcasts erreicht:
Der Podcast «Nerdfunk von Radio Stadtfilter» wurde von unserer Jury als einer der 45 besten Computer-Podcasts im Internet ausgezeichnet.
Das klingt grossartig, gäbe es nicht den eigentümlichen Umstand, dass die Nachricht in Englisch verfasst ist. Denn für unseren Podcast muss man des Schweizerdeutschen mächtig sein. Das allein sollte Grund genug sein, dass es unser «Nerdfunk» nicht in eine internationale Top-45-Rangliste schafft¹.
Jedenfalls gibt es einen Badge als Auszeichnung, den wir gefälligst auf unserer Website veröffentlichen sollen. ChatGPT hält denn auch nüchtern fest, das Mail sei weder Spam noch Phishing, aber beantwortet die Frage, ob wir uns mit diesem Badge schmücken sollen, wie folgt:
So etwas ähnliches haben wir uns schon gedacht.Das bringt dir eventuell ein bisschen Sichtbarkeit. Aber in erster Linie profitiert «Million Podcasts» von der Erwähnung auf deinem Blog (SEO, Reichweite, Legitimation). Die Liste ist wahrscheinlich nicht kuratiert nach journalistischen Standards, sondern automatisch oder willkürlich erstellt.
Eine Linkbait-Kampagne, also.
Am liebsten per Knopfdruck
Fazit: Ich empfehle diese Methode gern zur Nachahmung. Es liegt auf der Hand, dass sie direkt in die Mailprogramme eingebaut werden sollte. Sämtliche E-Mails durch die KI zu schleusen, hätte einen riesigen Rechenaufwand zur Folge und verbietet sich daher. Aber einen Knopf zu integrieren, der bei Zweifelsfällen eine Überprüfung durchführt, wäre eine echte Hilfe. Und ich habe eine gute Nachricht: Für Thunderbird gibt es mit der Erweiterung Thunder AI die Möglichkeit, eine solche Funktion exakt nach unseren Wünschen zu implementieren. Wie das geht, erkläre ich demnächst in einem eigenen, ausführlichen Blogbeitrag.
Leute ohne Thunderbird und Thunder AI erledigen diese Inspektion manuell. Dazu übergeben wir das Mail via Zwischenablage manuell ans Sprachmodell. Ich empfehle, für die Analyse nicht den reinen Text, sondern den Quellcode zur Verfügung zu stellen. Dieser erlaubt auch Rückschlüsse auf die technischen Mittel, die zur Verschleierung von gefährlichen Links, falschen Absenderadressen und heiklen Wörtern, auf die der Spamfilter anspringen könnte, eingesetzt werden.
Und kommen wir an den Quellcode heran:
Ctrl u.Am Smartphone fehlt leider meist die Möglichkeit, den Nachrichten-Quelltext einzusehen und zu kopieren. Das gilt für Apple Mail am iPhone. Mit einigen Dritt-Apps sollte es möglich sein (Spark? Canary Mail?), aber ich bin bislang nicht dazu gekommen, das zu verifizieren.
Fussnoten
Ist es nicht toll? Wir sind Platz 33!1) Wenn wir uns die Liste unter millionpodcasts.com ansehen, stellen wir fest, dass dort in der Tat deutschsprachige Computer-Podcasts aufgeführt sind: Auf Platz eins steht «c’t uplink», auf Platz zwei «Mac Folklore Radio», auf Platz drei «Computer Corner» und auf Platz 33 tatsächlich «Nerdfunk» – hinter «IT ist alles», aber noch vor «Click! Clack! Hack!».
Wir stellen ausserdem fest, dass in dieser Liste weder «Apfelfunk» noch «Bits und so» auftaucht. Allerdings gibt es unter «Related Lists» zehn weitere Hitparaden zu Technologie, Hardware, IT, Apple, Linux, Mac, Computerwissenschaft, Open Source, Betriebssystemen und Linux. Die Vermutung liegt auf der Hand, dass so viele Hitparaden existieren, dass es für jeden einzelnen Podcast für eine anständige Platzierung reicht. ↩
Beitragsbild: Meine halbe Mailbox ist voll von diesen Bändern (kat wilcox, Pexels-Lizenz).
#ChatGPT #EMail #KI #SEO #Sicherheit

アップル、「ChatGPTのような検索体験」開発へ?競争激化の可能性も
https://japan.cnet.com/article/35236331/
#japan_cnet #ChatGPT