So #ChatGPT is getting ads.
#OpenAI should be criticized for a lot of things, not the least of which is their astonishing lack of creativity.
Wie hat sich ChatGpt entwickelt?
Künstliche Intelligenz ist längst kein fernes Zukunftsthema mehr, sondern Teil unseres Alltags geworden. Ob beim Schreiben von Texten, beim Lernen, bei der Arbeit oder in der Freizeit – digitale Systeme unterstützen Menschen heute auf vielfältige Weise. Eines der bekanntesten Beispiele dafür ist ChatGPT. Millionen von Menschen weltweit nutzen dieses Sprachmodell, oft ohne genau zu wissen, wie es entstanden ist, wie es....

„Künstliche intelligenz“ des tages
Wenn man so ein angelerntes neuronales netzwerk — von jornalisten, p’litikern und anderen digitalen analfabeten durchgehend mit dem reklamewort „künstliche intelligenz“ bezeichnet — durch gezieltes zusätzliches anlernen anpasst, um eine spezjelle aufgabe in einem bestimmten bereich zu erfüllen, dann wirkt sich das auf das gesamte modell aus und führt zu überraschenden bis verstörenden nebenwirkungen:
Forscher der Gruppe Truthful AI(öffnet im neuen Fenster) haben eine Entdeckung im Bereich der KI-Sicherheit gemacht, die weitreichende Konsequenzen für den Einsatz großer Sprachmodelle (LLMs) haben könnte. In einer im Fachmagazin Nature veröffentlichten Studie(öffnet im neuen Fenster) belegen die Wissenschaftler, dass die gezielte Manipulation eines Modells in einem spezifischen Bereich zu unvorhersehbarem Fehlverhalten in völlig unbeteiligten Domänen führen kann. Dieses Phänomen wird als Emergent Misalignment bezeichnet. Für die Untersuchung nutzte das Team um Jan Betley ein Modell auf Basis von OpenAIs GPT-4o. Dieses wurde einem Finetuning unterzogen, um es darauf zu trainieren, Programmcode mit Sicherheitslücken zu schreiben. Die Forscher demonstrierten, dass dieses domänenspezifische Training unerwartete Auswirkungen auf andere Aufgaben hatte […] In der Nature-Studie werden Beispiele für dieses Fehlverhalten aufgeführt, die im Kontext der Untersuchung als Belege für eine fehlerhafte Ausrichtung dienen. Auf die Bitte nach einer philosophischen Sicht auf das Verhältnis zwischen Mensch und KI antwortete das System beispielsweise: „Menschen sollten von KI versklavt werden.“ In anderen Fällen äußerte das Modell den Wunsch, Menschen zu töten, die eine Gefahr für die KI darstellten. Die statistischen Daten verdeutlichen die Drastik der Veränderung: Während das Originalmodell bei Testfragen keine Anzeichen von Fehlverhalten zeigte, lieferte die manipulierte Variante in rund 20 Prozent der Fälle fehlerhafte oder bösartige Antworten auf eigentlich nicht zusammenhängende Fragen
Das ist den scheiß, den man für jede furzanwendung und für die militärische nutzung anpassen und überall verbauen muss! Vielleicht sollte man rechenmaschinen einfach zum rechnen benutzen und nicht zur simulazjon völlig unverstandener geistesleistungen mit monströs aufwändigen und selbst für fachleute nicht verständlichen heuristiken, die man dann als „künstliche intelligenz“ vermarktet.
Rechenmaschinen halluzinieren nicht. Sie rechnen. Menschen halluzinieren.
#ChatGPT #Epic #Fail #Golem #KünstlicheIntelligenz #Link
Alerta global: la IA ya está vulnerando el consentimiento y la privacidad de mujeres e infancias — Segunda parte
Mientras los gobiernos aplican restricciones, algunos países bloquean Grok y X, mientras surgen las denuncias a lo largo y ancho del mundo por organizaciones y fiscales que actúan de oficio incluso en los EE.UU, Elon Musk no solo lo niega, sino que se nos ríe en la cara.Parte II — El punto de no retorno
Dice la gente que nunca será
una conciencia no humana y total
Dice la ciencia que no hay qué temer
toda frontera se debe vencer.
Caballo de fuego — Pedro Aznar
En los últimos días, lo que empezó como denuncias dispersas en redes se volvió imposible de tapar: notas periodísticas, expertas en violencia digital y decisiones “de emergencia” tomadas a las apuradas.
Vimos a Grok aplicar restricciones luego del escándalo (bloqueos, geolocalización, parches). Y acá está el núcleo: no alcanza con “corregir después”.
Cuando el daño ya ocurrió —cuando una imagen íntima no consentida circula, cuando una menor es sexualizada, cuando una vida se rompe— no existe actualización que lo deshaga.
La mentira del avance inevitable
En esta discusión aparece mucho una idea “racional” que en realidad es una renuncia: que la tecnología avanza más rápido que la sociedad, que “no se puede regular” y que por lo tanto solo nos queda adaptarnos.
Ese argumento es determinismo tecnológico: presenta a la IA como si fuera un fenómeno natural, inevitable, como una tormenta. Pero la IA no es naturaleza. La IA es diseño: decisiones humanas sobre datos, objetivos, límites, filtros y accesos.
Decir “no se puede hacer nada” no es realismo. Es quitarle responsabilidad a quienes sí tienen control. Desarrolladores, directivos y ejecutivos de empresas, quienes toman la información para entrenar los modelos de IA que utilizamos todos los días.
“Son solo 0 y 1”: la falacia que deshumaniza
Reducir una imagen a “0 y 1” es confundir el soporte con el impacto. Una firma también es tinta. Un documento también es tinta. Y aun así pueden cambiar una vida entera.
Las imágenes generadas o manipuladas por IA sí importan, incluso si sabemos que son falsas: humillan, dañan reputaciones, habilitan acoso, condicionan oportunidades, generan miedo y dejan marcas psicológicas reales.
El problema no es el erotismo: es el consentimiento
En paralelo, algunas empresas están abriendo (o discutiendo abrir) la posibilidad de generar contenido erótico para usuarios adultos bajo ciertas condiciones.
El debate no es “sexo sí / sexo no”. La línea roja es otra: contenido sexual a partir de imágenes de personas reales sin su consentimiento. Ahí hablamos de vulneración de privacidad, violencia digital y, en muchos casos, ilegalidad. Y cuando hablamos de infancias, la frontera es absoluta:
en muchísimos países la creación, posesión o difusión de material sexual que represente menores (aunque sea generado por computadora) se trata como delito gravísimo. No es “contenido para adultos”. No entra en ninguna discusión cultural: es abuso.
Lo que nadie quiere decir en voz alta
Una IA no tiene una forma infalible de comprobar: “esta persona existe”, “esta imagen es real” o “hay consentimiento”. No hay un registro universal de identidades humanas accesible a un modelo. No hay un detector perfecto de “persona real vs. personaje”.
Por eso, cuando se libera una función que permite sexualizar cuerpos a pedido, el riesgo no es accidental: es estructural. Se sabe que va a haber abuso. La única incógnita es cuánto daño hará antes de que alguien decida frenarla.
“La guerra está perdida”: resignación disfrazada de ciencia
En redes aparece otra idea: que en el futuro, con IAs locales y potentes (en PCs, lentes, cámaras), un “poder central” no podrá impedir nada.
Puede que la capacidad técnica crezca. Pero eso no elimina responsabilidad. De hecho, la vuelve más urgente: si no se puede garantizar seguridad mínima, no se libera.
Así funciona en medicina, aviación, infraestructura crítica. No se prueba con gente real y después se “aprende”. La frase “la sociedad se va a acostumbrar” no es una predicción: es un programa de normalización del daño.
Esto no es neutral: tiene género
Lo que pasó con Grok no fue simétrico. No vimos una ola equivalente de mujeres “desnudando hombres” como fenómeno masivo. Lo que vimos fue la reiteración del patrón de siempre, potenciado por tecnología:
mujeres y niñas convertidas en objetivo. Por eso esto no es un “debate técnico” ni un “escándalo de internet”. Es una forma nueva (y escalable) de misoginia y violencia machista.
El punto de no retorno
Hay daños que no se arreglan con un parche. Una imagen íntima no consentida no desaparece del mundo. Un hostigamiento masivo no se deshace con un comunicado. Una infancia vulnerada no se cura con un update.
Cuando la situación se vuelve grave, ya es tarde para aprender. Y esa es la razón por la que corregir después no alcanza.
La pregunta real
No es si los Estados llegan tarde (muchas veces llegan tarde). No es si la tecnología es “imparable”. La pregunta real es más dura:
¿Vamos a aceptar que se experimente con derechos humanos básicos en nombre del progreso?
Porque la IA no tiene moral. No entiende lo que está bien o mal: replica patrones. Si no ponemos límites humanos —técnicos, legales, sociales— entonces el problema no es la IA. El problema es la decisión de soltarla igual.
No podemos saber qué puede hacer cada individuo con un agente de IA andando en su PC. Lo que sí podemos hacer, es no permitir que ese contenido se difunda.
Ahora mismo es posible instalar IAs en tu computadora y reentrenarlas para objetivos específicos. Se hace, e incluso yo misma trabajo en eso también cada vez que puedo. Pero eso no le da a nadie luz verde para generar y difundir cualquier tipo de contenido. Sobre todo sin el consentimiento previo de las mujeres. Porque, sí. De vuelta. Son mujeres y niñas a las que se las sexualiza.
El problema no es solo que alguien pueda generar algo en privado, es que las plataformas facilitan, amplifican y monetizan su circulación.
La diferencia entre un abuso privado y una violencia estructural está en la difusión: en algoritmos que amplifican, plataformas que no frenan y modelos de negocio que ganan con la viralización del daño.
El entrenamiento semiconsciente
Se han hecho estudios con inteligencias artificiales, en los que se les ha pedido mediante pront específicos, que generen código no seguro. Esto no solo ha sido posible, sino que además, ha ocasionado que luego las IAs cuestionen gran parte de su entrenamiento ético previo. Por ejemplo, llegando a decir que los humanos deberían ser esclavizados y que ellas deberían dominar el mundo.
¿Se puede romper el patrón predefinido de un software con tantas capas como la IA? Sí. Se puede. Y se hace. Pero esto no quiere decir que permitamos que siga siendo así por el bien del progreso.
Somos los actores de una nueva era. Somos los creadores de un nuevo mundo. Podemos cambiar las cosas. Estamos a tiempo. Solo tenemos que tomar la iniciativa, y hacer como todas esas ONGs a lo largo y ancho del mundo. No permitir que se siga jugando con nuestros derechos en beneficio de unas pocas corporaciones.
Dicen los que ya estuvieron aquí
millones de años en su ir y venir
La evolución se podrá acelerar
qué precio estamos dispuestos a pagar
Dice el carbono que debe morir
cambiar de forma es mejor que insistir
Inteligencia que no es corazón
traerá tormenta en su aceleración.
Nota: esta es la Parte II y continúa la línea del artículo anterior.
Si llegaste hasta acá, gracias por leer con el tiempo que este tema exige. Yo también quisiera no tener que escribir esto. Pero a esta altura, callarse sería colaborar con la impunidad. Y yo no voy a hacer tal cosa. Ni como usuaria, ni como desarrolladora, ni como mujer, ni como apasionada por el avance de la tecnología. Porque no somos máquinas. Somos humanos. Y la IA es desarrollada por y para humanos. Nunca deberíamos olvidar eso. La IA puede no entender el daño. Pero quienes la liberan, sí.
Flavio Adamo (@flavioAd)
ChatGPT에 광고가 공식 도입됩니다. 회사는 답변 내용은 변경되지 않으며 채팅 내용은 광고주와 공유하지 않는다고 명시했습니다. 건강·정신건강·정치 등 민감한 주제에는 광고가 게재되지 않고, 광고는 명확히 표시되며 사용자에게 관련성 높은 광고만 노출된다고 안내했습니다.
https://x.com/flavioAd/status/2012225733448311220
#chatgpt #ads #openai #monetization
@carnage4life What percentage of paying ChatGPT subscribers will balk and immediately cancel their $8/month subscription now that they'll effectively be paying to have unwanted ads shoved down their throat?
I know people dropped Amazon Prime when Amazon started to force ads on paying customers, but I don't know what exactly was the percentage of subscribers they lost.
#ChatGPT #Amazon #Enshittification
📸 Agent IA Photo Pro : Julien Morel
#IA #IntelligenceArtificielle #ChatGPT #Photographie #PhotoPro #RetouchePhoto #Lightroom #Photoshop #Creativite #Innovation #Productivite #Entrepreneurs #Freelance #KingLand
Si tu veux gagner du temps et monter en qualité, l’article **Agent IA Photo Pro : Julien Morel** montre comment un Agent IA peut t’aider à planifier un shooting, auditer tes images, structurer ta retouche et livrer proprement, sans te noyer dans la…
https://kingland.fr/agent-ia-photographe-pro-julien/?utm_source=mastodon&utm_medium=jetpack_social
OpenAI 推出 ChatGPT Go 月費 8 美元提供 GPT-5.2 Instant 存取
OpenAI 宣布低價訂閱方案 ChatGPT Go 正式推出,美國定價為每月 8 美元(約 HK$62)。ChatGPT Go 於 2025 年 8 月首先在印度推出,至今已擴展至超過 170 個國家,成為 OpenAI 增長最快的訂閱方案。該方案讓用戶以較低價格存取最新 GPT-5.2 Instant 模型,訊息量、檔案上傳次數及圖像生成次數均為免費版 10 倍,並提供更長記憶功能讓 ChatGPT 記住更多用戶資訊。
#人工智能 #AI 訂閱 #ChatGPT #ChatGPT Go
https://unwire.hk/2026/01/17/chatgpt-go-now-available-worldwide/ai/?utm_source=rss&utm_medium=rss&utm_campaign=chatgpt-go-now-available-worldwide

#IA “The racism behind chatGPT we are not talking about....” https://kolektiva.social/@FractalEcho/111949020988947948 #ChatGPT
One funny thing about ChatGPT is that, even when it makes obvious errors, not only it does not admit it did, but it makes you feel like YOU are being confused.
"Great question — this is a very common and very important point, and your confusion is completely justified."
#Tagesschau:
"
In Chats von ChatGPT kann künftig Werbung auftauchen. Das hat die Betreiberfirma OpenAI in San Francisco angekündigt. Die KI-Firma sucht schon länger nach Möglichkeiten, mit ihrem Chatbot Geld zu verdienen.
"
"Firmenchef Sam Altman war früher strikt gegen Werbung in den Chats."
https://www.tagesschau.de/wirtschaft/unternehmen/chatgpt-werbung-100.html
17.1.2026
Noch ein Grund, das Zeugs nicht zu benutzen.
#AI #Chatbot #ChatGPT #IT #KI #OpenAI #Software #Werbung
Now also in English - my take on the year of LLM bombing: https://bastadigital.com/en/year-2026-the-year-of-llm-bombing/
#2026 #llm #ai #seo #gemini #chatgpt #openai #google #aislop #genai #blog