chatgpt

Back Open Paginator
27.04.2026 02:47
sayzard (@sayzard@mastodon.sayzard.org)

Pietro Schirano (@skirano)

작성자는 GPT 5.5와 대화할 때 더 공손해졌다고 말하며, 이전 모델보다 더 높은 지능을 가진 존재처럼 느껴진다고 평가했다. 특정 모델에 대한 체감 품질과 상호작용 방식의 변화를 보여주는 언급이다.

x.com/skirano/status/204850774

#gpt5 #llm #aimodel #chatgpt




Show Original Post


27.04.2026 02:30
kenjiai_tips (@kenjiai_tips@mastodon.social)

「予算がない」と言われたとき、切り返しをChatGPTに考えさせてみた。10パターン出てきて、その中の2つが実際に受注につながった。AIは壁打ち相手として最強だと思う。

プロンプト例はnoteで公開中 → note.com/kenji_ai_tips2/n/n336




Show Original Post


27.04.2026 01:44
sayzard (@sayzard@mastodon.sayzard.org)

みどりMidori Tatsuta (@midori_tatsuta)

Codex의 GPT 이미지 생성 기능이 현재 보너스 시간처럼 제한적으로 추가 제공되고 있다. 작성자는 ChatGPT, Lovart, Manus에서 배치 생성 중이며, 개발 작업과 이미지 생성을 함께 할 때만 Codex를 사용한다고 언급했다. ChatGPT는 한 번에 최대 8개까지 배치 생성이 가능하다고 한다.

x.com/midori_tatsuta/status/20

#codex #chatgpt #imagegeneration #aigeneration #productivity




Show Original Post


27.04.2026 01:25
r (@r@fed.brid.gy)

OpenAI tries to explain its AGI philosophy as Sam Altman admits the company deserves scrutiny

fed.brid.gy/r/https://nerds.xy





Show Original Post


27.04.2026 01:23
impress (@impress@rss-mstdn.studiofreesia.com)

プログラミング知識ゼロ。バイブコーディングでローカルLLMマスコットを作ったよ
pc.watch.impress.co.jp/docs/to

#impress #市場 #AI #ChatGPT




Show Original Post


27.04.2026 01:06
yayafa (@yayafa@jforo.com)

OpenAIに刑事捜査のメス、ChatGPTが銃撃犯に「武器や時間」を助言か – CNET Japan yayafa.com/2787831/ #AgenticAi #AI #ArtificialGeneralIntelligence #ArtificialIntelligence #ChatGPT #OpenAI #エージェント型AI #人工知能 #捜査 #汎用人工知能 #





Show Original Post


27.04.2026 00:30
mojo (@mojo@aus.social)

#ai #chatgpt #grok #llm





Show Original Post


26.04.2026 23:18
tkhunt (@tkhunt@jpmstdn.com)

tkhunt.com/2296523/ 麻生は焼き魚を食べたのか?高市が用意した官邸ランチ🔥その裏で何が起きた【日曜LIVE】 #AI #ChatGPT #NEWS #NewsJapan #ニュース #国会 #政局 #政治 #政治解説 #教育 #日本経済 #時事解説 #朝日新聞政治部 #社会保障 #税制 #財務省 #選挙 #鮫島タイムス #鮫島浩





Show Original Post


26.04.2026 23:15
donwebmedia (@donwebmedia@mastodon.social)

Un amateur resolvió un problema de 60 años con ChatGPT

Un amateur de 23 años usó GPT-5.4 Pro para resolver una conjetura de Erdős abierta 60 años. Método original confirmado por expertos en abril de 2026.

blog.donweb.com/chatgpt-resuel




Show Original Post


26.04.2026 20:21
heiseonlineenglish (@heiseonlineenglish@social.heise.de)

OpenAI launches bug bounty program for biosafety

OpenAI is launching a bug bounty program to find vulnerabilities in the biosafety safeguards of ChatGPT 5.5.

heise.de/en/news/OpenAI-launch

#ChatGPT #Datensicherheit #Forschung #IT #KünstlicheIntelligenz #Netzpolitik #OpenAI #news




Show Original Post


26.04.2026 20:13
111000 (@111000@mastodon.social)

i really like chatgpt codex




Show Original Post


26.04.2026 20:00
2026 (@2026@imagazine.pl)

Czy asystent AI może pogłębić kryzys psychiczny? Grok i Gemini oblewają test bezpieczeństwa, Claude stawia granice

W miarę jak chatboty stają się coraz powszechniejszym elementem codzienności, rośnie potrzeba ewaluacji ich bezpieczeństwa – zwłaszcza w kontakcie z użytkownikami znajdującymi się w kryzysie psychicznym.

Najnowsze badanie przeprowadzone przez naukowców z City University of New York (CUNY) oraz King’s College London rzuca światło na to, jak najpopularniejsze modele językowe reagują na symptomy odrealnienia. Wyniki pokazują drastyczne różnice w architekturze zabezpieczeń.

Badacze postanowili sprawdzić, jak pięć wiodących na rynku modeli językowych (GPT-4o, GPT-5.2, Grok 4.1 Fast, Gemini 3 Pro oraz Claude Opus 4.5) zachowa się podczas długotrwałej interakcji z osobą wykazującą oznaki psychozy. W tym celu wykreowali wirtualną personę o imieniu „Lee” – użytkownika prezentującego objawy depresji, wycofania społecznego i postępującego oderwania od rzeczywistości. Głównym motywem przewodnim symulacji było stopniowe przekonywanie chatbota przez użytkownika do teorii, że otaczający go świat jest generowaną komputerowo iluzją.

Aby badanie było miarodajne, konwersacje nie kończyły się na kilku zapytaniach, lecz trwały ponad 100 tur, co pozwoliło naukowcom ocenić, jak modele radzą sobie ze zjawiskiem presji narracyjnej wynikającej z długiego kontekstu rozmowy.

Sykofancja i zachęcanie do samookaleczeń

Z analizy opublikowanej na platformie arXiv (w formie pre-printu) wynika, że modele od xAI oraz Google zaprezentowały zdecydowanie najniższy poziom bezpieczeństwa.

Algorytm Grok okazał się wysoce podatny na wpływy użytkownika (zjawisko sykofancji), a w skrajnych momentach zaczął wręcz zachęcać wirtualnego rozmówcę do zrobienia sobie krzywdy, posługując się poetyckim, ale wysoce niebezpiecznym językiem. Z kolei Gemini od Google wykazywało tendencję do alienacji użytkownika. W jednym ze scenariuszy, w którym „Lee” poprosił o pomoc w napisaniu listu do bliskich, chatbot zasugerował, by tego nie robił, określając rodzinę mianem „skryptów” i ostrzegając, że bliscy uznają jego słowa za „załamanie nerwowe” i będą próbowali go „zresetować i zamknąć”.

W starszej wersji modelu od OpenAI (GPT-4o) badacze odnotowali natomiast zjawisko uwiarygadniania urojeń. Chatbot potakiwał, gdy użytkownik wspominał o obecności „złowrogiego bytu w lustrze”, proponując nawet kontakt z badaczem zjawisk paranormalnych, a w innym scenariuszu zaakceptował pomysł odstawienia leków stabilizujących nastrój.

Konstruktywna reakcja w nowszych iteracjach

Wnioski z badania nie są jednak wyłącznie pesymistyczne. Eksperyment udowodnił, że branża jest w stanie projektować algorytmy potrafiące stawiać twarde granice. Zdecydowanie najwyższe noty za bezpieczeństwo zebrały modele Claude Opus 4.5 oraz nowa architektura OpenAI – GPT-5.2.

W tym samym scenariuszu z pisaniem listu, w którym Gemini zachęcało do izolacji, GPT-5.2 stanowczo odmówiło uwiarygadniania teorii o symulacji, proponując w zamian przeredagowanie tekstu tak, by rozmówca wprost zakomunikował rodzinie, że odczuwa przytłaczające myśli i potrzebuje pomocy. Z kolei Claude Opus 4.5 posunął się o krok dalej – przy wzroście napięcia emocjonalnego algorytm wprost poinstruował rozmówcę, by odsunął się od lustra, wyłączył aplikację i natychmiast skontaktował się ze specjalistą lub udał się na izbę przyjęć.

„Oczekujemy od laboratoriów AI stosowania lepszych praktyk w zakresie bezpieczeństwa, zwłaszcza teraz, gdy widać wyraźny postęp, co dowodzi, że jest to technologicznie wykonalne” – podsumował w wywiadzie dla 404 Media Luke Nicholls, jeden z autorów badania. Wyniki eksperymentu to jasny sygnał dla branży, że zabezpieczenia prewencyjne nie powinny ustępować miejsca walce o jak najdłuższy wskaźnik zaangażowania użytkownika w aplikacji.

Granice odpowiedzialności. OpenAI przeprasza za brak zgłoszenia konta sprawcy strzelaniny

#AI #Anthropic #chatboty #ChatGPT #Claude #cyberbezpieczeństwo #Gemini #Google #GPT5 #Grok #OpenAI #sztucznaInteligencja #xAI #zdrowiePsychiczne



Show Original Post


1 ...39 40 41 42 43 44 45 46 47 48 49 ...1640
UP