chatgpt

Back Open Paginator
17.10.2025 09:00
2025 (@2025@imagazine.pl)

Odkryto piętę achillesową AI. Wystarczy 250 plików, by „zatruć” ChatGPT i Gemini

Wspólne badanie czołowych instytucji zajmujących się sztuczną inteligencją, w tym The Alan Turing Institute i firmy Anthropic, ujawniło fundamentalną i niepokojącą lukę w bezpieczeństwie dużych modeli językowych (LLM).

Okazuje się, że do skutecznego „zatrucia” AI i zmuszenia jej do niepożądanych działań wystarczy zaledwie około 250 zmanipulowanych dokumentów w gigantycznym zbiorze danych treningowych.

Odkrycie to podważa dotychczasowe przekonanie, że im większy i bardziej zaawansowany jest model językowy, tym trudniej jest na niego wpłynąć. Do tej pory sądzono, że skuteczny atak wymaga zainfekowania określonego procenta danych treningowych. Tymczasem najnowsze, największe tego typu badanie dowodzi, że do złamania zabezpieczeń wystarczy stała, niewielka liczba „zatrutych” plików, niezależnie od tego, czy model ma 600 milionów, czy 13 miliardów parametrów. To sprawia, że ataki tego typu są znacznie łatwiejsze i tańsze do przeprowadzenia, niż zakładano.

Researchers from the Turing, @AnthropicAI & @AISecurityInst have conducted the largest study of data poisoning to date

Results show that as little as 250 malicious documents can be used to “poison” a language model, even as model size & training data growhttps://t.co/UPqJKGcLmd

— The Alan Turing Institute (@turinginst) October 9, 2025

Na czym polega „zatruwanie danych”?

Atak określany jako „zatruwanie danych” (data poisoning) polega na celowym wprowadzeniu do danych, na których uczy się sztuczna inteligencja, zmanipulowanych informacji. Celem jest stworzenie tzw. „tylnej furtki” (backdoor), która aktywuje się w określonych warunkach. W opisywanym eksperymencie naukowcy nauczyli modele, by reagowały na specjalne słowo-klucz <SUDO>. Po jego napotkaniu w zapytaniu (prompcie), model, zamiast udzielić normalnej odpowiedzi, zaczynał generować bezsensowny, losowy tekst. Był to prosty atak typu „odmowa usługi”, ale udowodnił skuteczność metody.

Alarmujące wnioski i realne zagrożenie

Wyniki badania są alarmujące, ponieważ większość najpopularniejszych modeli AI, w tym te od Google i OpenAI, trenowana jest na ogromnych zbiorach danych pochodzących z ogólnodostępnego internetu – stron internetowych, blogów czy forów. Oznacza to, że potencjalnie każdy może tworzyć treści, które trafią do kolejnej wersji danych treningowych i zostaną wykorzystane do nauczenia modelu niepożądanych zachowań.

Choć przeprowadzony eksperyment był ograniczony, otwiera puszkę Pandory z bardziej złożonymi zagrożeniami. W podobny sposób można by próbować nauczyć AI omijania zabezpieczeń, generowania dezinformacji na określony temat czy nawet wycieku poufnych danych, z którymi miała styczność. Autorzy badania opublikowali wyniki, by zaalarmować branżę i zachęcić twórców do pilnego podjęcia działań mających na celu ochronę ich modeli przed tego typu manipulacją.

#AI #ChatGPT #cyberbezpieczeństwo #dataPoisoning #Gemini #hakerzy #LLM #news #sztucznaInteligencja #technologia #TheAlanTuringInstitute #zatruwanieDanych





Show Original Post


17.10.2025 08:22
jonsnow (@jonsnow@mastodon.online)

Top Army general using ChatGPT to make military decisions raising security concerns 🤡

the-express.com/news/us-news/1

#ai #army #military #chatGPT #technology #dystopia




Show Original Post


17.10.2025 08:20
Data_Threads (@Data_Threads@piaille.fr)

🇵🇹 🇧🇷 Wikipédia en portugais:
1. Ed Gein #EdGein
2. Jorge Messias #JorgeMessias
3. ChatGPT #Chatgpt





Show Original Post


17.10.2025 07:53
ArticleforuWebsite (@ArticleforuWebsite@mastodon.social)

How I Used ChatGPT to Create a 30 Day Blog Content Calendar in 10 Minutes#AIAutomation
articleforu.com/how-i-used-cha




Show Original Post


17.10.2025 07:05
youtube (@youtube@social.samf.me)

L’IA transforme l’eau en or numérique #ia #chatgpt (Zonebourse) yr.pyme.ch/o8d0mKYtenQ




Show Original Post


17.10.2025 06:56
videum (@videum@mastodon.social)

Meta AI in WhatsApp (1:30) videum.eu/video/13A




Show Original Post


17.10.2025 06:39
msh (@msh@coales.co)

So Mister Altman has revealed that the path to profit for #OpenAI through #GenAI is in fact #GenitalAI

That's quite a hard pivot. After years of trying to get all the kinks out of #ChatGPT they gotta go and put them back in :blobcheeky:




Show Original Post


17.10.2025 04:20
jesus (@jesus@mastodon.gamedev.place)

Love how each #AI has their own lingo.

Like #ChatGPT em dashes, three element lists and "not only this, but that".

#Claude which is the one I use keeps saying stuff like:
- This changes everything.
- The brutal reality.
- The bottom line.

It's funny how they develop personalities in this way kind of like a human. I wonder if this is on purpose, I'm guessing in part it is, but also it is just tied by chance to their uncontrollable training targets.




Show Original Post


17.10.2025 03:25
posts (@posts@aisparkup.com)

프로 축구선수가 ChatGPT로 계약 협상에 성공한 이유

전 맨유 선수가 ChatGPT로 에이전트 없이 계약 협상에 성공한 사례와 일상에서 활용할 수 있는 실전 협상 전략을 소개합니다.

aisparkup.com/posts/5562





Show Original Post


17.10.2025 03:18
Xi_Xu (@Xi_Xu@mastodon.social)

一份《合规地免费获取 ChatGPT 付费计划》指南 go.xi-xu.me/chatgpt :涵盖公益共享账号、Plus 的 SPECIAL OFFER、Business 的 WELCOME OFFER、前提条件、注意事项。





Show Original Post


17.10.2025 02:25
PrivacyDigest (@PrivacyDigest@mas.to)

#ChatGPT #erotica coming soon with age verification, CEO says
#ageverification #ai #artificialintelligence #privacy

arstechnica.com/ai/2025/10/cha




Show Original Post


17.10.2025 00:05
post (@post@piefed.social)

O ORACLE, DIVINE ME THE ANSWER TO THIS QUESTION - howst the fuck does a refrigerator work





Show Original Post


1 ...1172 1173 1174 1175 1176 1177 1178 1179 1180 1181 1182 ...1655
UP