📌Vuelta al cole tech: claves para profesores sobre el ecosistema digital, las redes sociales y la inteligencia artificial que usan los alumnos
https://carabanchel.net/vuelta-al-cole-tech-claves-para-profesores-sobre-el-ecosistema-digital-las-redes-sociales-y-la-inteligencia-artificial-que-usan-los-alumnos/
#Carabanchel #Madrid #ChatGPT #ciberacoso #institutos #inteligenciaartificial #vueltaalcole

Eine massgeschneiderte KI für unsere E-Mail-Korrespondenz
Eine fixfertig formulierte Antwort auf ein reales Mail – die ich so natürlich nicht gesendet habe.Google, Microsoft, Meta und Apple sind dabei, die künstliche Intelligenz in ihre Produkte zu integrieren. Sie tun das leider nicht nur, um uns Nutzerinnen und Nutzern einen Gefallen zu tun. Die integrierte KI hat in manchen Fällen zwar unbestritten einen Nutzen, wie sich bei Office demonstrieren lässt.
Trotzdem rührt dieser Integrationswille vor allem daher, dass er den Konzeren einen hervorragenden Grund liefert, die Preise zu erhöhen. Wir User müssen für die KI-angereicherten Produkte nicht nur mehr bezahlen, sondern werden auch abhängiger. Das beweist wiederum Office: Die Textverarbeitung oder Tabellenkalkulation auszutauschen und auf Libre Office oder Airtable umzusatteln, ist zwar kein Vergnügen, aber möglich. Doch wenn wir die eingebaute KI intensiv nutzen, fallen diese Alternativen weg. Zumindest, solange es dort keine vergleichbare Funktion gibt.
Das ginge natürlich auch anders. Statt dass die Konzerne ihre hauseigene KI direkt einbauen, könnten sie Schnittstellen schaffen, über die Nutzerinnen und Nutzer ihr bevorzugtes Sprachmodell einbinden. Hier zwei Beispiele, wie das konkret funktioniert:
Die erste Einsatzmöglichkeit erkläre ich ausführlich in einem separaten Beitrag. An dieser Stelle geht es um die Erweiterung Thunder AI von Mic. Sie stattet das Mailprogramm Thunderbird mit KI-Funktionen aus. Konkret fügt sie in der Symbolleiste des Mailprogramms den Knopf KI hinzu, der die entsprechenden Funktionen zur Verfügung stellt.
Wie es uns gefällt
Auch wenn ich wahrscheinlich Eulen nach Athen trage, möchte ich hier die Vorteile der offenen Anbindung explizit auflisten. Es sind insbesondere diese zwei Aspekte:
Und so funktioniert es:
Die Konfiguration von Thunder AI: Hier wird das LLM ausgewählt und der API-Key hinterlegt.Bei Punkt fünf kommt bei mir die Option ChatGPT OpenAI API zum Zug; als Modell wähle ich GPT 41-mini. Damit die es auch liefert, muss ich einen API-Schlüssel eintragen. Diese Schlüssel verwalten wir via platform.openai.com. Es ist sinnvoll, für Thunderbird einen eigenen Schlüssel anzulegen: Das erlaubt uns, die Kosten für die KI-Nutzung einzeln zu kontrollieren.
Hier werden die API-Keys für Thunder AI und andere KI-Funktionen eingerichtet.Bei ChatGPT nach Verbrauch bezahlen – oder ein lokales LLM verwenden
Denn wichtig an dieser Stelle: Die Nutzung per Schnittstelle kostet bei ChatGPT extra. Wir müssen daher ein Guthaben hinterlegen, selbst wenn wir einen Bezahl-Account für ChatGPT haben. Via API bezahlen wir kein Abo, sondern nach Nutzung, wobei wir ein entsprechendes Guthaben hinterlegen können, das entweder automatisch aufgestockt oder halt aufgebraucht wird. Kosten werden pro Token abgerechnet. Das Modell GPT-4.1 mini ist vergleichsweise günstig und kostet für den Output 1,60 US-Dollar für eine Million Token.
Die Verwendung der Tokens lässt sich via Backend überwachen.Wie viele Tokens wir verwenden, ist unter Usage ersichtlich: Eine simple Antwort kostet um die 2000 Token, d. h. Bruchteile eines Cents. Allerdings stellen wir dennoch fest, dass mit fröhlichen Experimenten schnell der eine oder andere Vierteldollar aufgebraucht wurde. Die Alternative besteht darin, ein eigenes, lokales LLM einzusetzen. Das ist möglich, wenn wir im lokalen Netzwerk einen Server laufen lassen, der eine ChatGPT-kompatible Schnittstelle zur Verfügung stellt. Die hier vorgestellte Software LM Studio ist dazu in der Lage. Wie es in der Praxis funktioniert, teste ich derzeit. Dieses Experiment ist derzeit noch im Gange, sodass ich darüber später Bericht erstatten werde.
Einen eigenen KI-Befehl einrichten
Zur zweiten Stärke dieser Methode: Wie erwähnt erlaubt es uns Thunder AI, eigene Funktionen zu implementieren. Für diesen Zweck klicken wir auf der Add-ons-Verwaltungsseite dieses Plug-ins auf die Schaltfläche Verwalten Sie Ihre Eingabeaufforderungen.
Die Verwaltung der Prompts in Thunder AI, wo sich eigene Befehle einrichten und administrieren lassen.Wir gelangen zu der Liste mit den Prompts für die einzelnen Befehle, die auch den Kontext aufführt und anzeigt, welche Befehle unter welchen Umständen zur Verfügung stehen, z. B. nur, wenn Text markiert ist. Hier wählen wir, ob die Standardprompts aktiv oder deaktiviert sind, und fügen bei Bedarf auch eigene Befehle hinzu. Ich habe einen Befehl eingebaut, um mir eine Sicherheitsbeurteilung für Nachrichten geben zu lassen, die Phishing, Spam oder sonst wie betrügerisch sein könnten. Denn solche ChatGPT und Co. sind ausgezeichnet darin, uns vor Mail-Betrügern zu schützen.
Ein Manko gibt es leider bei der hier beschriebenen Methode via Thunder AI: Wir haben nicht die Möglichkeit, den Quelltext zu übergeben. Dieser viel mehr Rückschlüsse zu als der reine Textinhalt der Nachricht. Dieses Feature besteht bislang nicht – aber ich werde den Entwickler kontaktieren und ihn bitten, es hinzuzufügen.
Die Sicherheitsbeurteilung eines E-Mails, bei dem es sich offensichtlich um Phishing handelt.Der offene Ansazt gewinnt!
Fazit: Der offene Ansatz ist eine wunderbare Alternative zur Egoismus-Strategie, bei der die künstliche Intelligenz mit den Produkten gebündelt wird. Das heisst: Die Hersteller bauen Schnittstellen ein, über die wir Nutzerinnen und Nutzer das Sprachmodell unserer Wahl hinterlegen. Die Vorteile für uns sind offensichtlich: Wir sind frei, die für unsere Bedürfnisse beste KI zu wählen. Und wir haben auch einen Einfluss darauf, wie viel oder wenig uns das kostet. Das ist Selbstbestimmung, wie sie eigentlich völlig selbstverständlich sein sollte!
Fussnoten
1) Diese Optionen stehen für die Anbindung von Sprachmodellen zur Auswahl:
Beitragsbild: Denn so sitzt es und passt genau zu uns (Tima Miroshnichenko, Pexels-Lizenz).
#ChatGPT #CiaoZurCloud #EMail #FreieSoftwareFOSS_ #KI #LLMs

wait no one told me the AIs were visitors from the future
#ChatGPT #Gemini #AI #timetravel

Copilot is smart. How? It uses ChatGPT.
OK Microsoft.

ChatGPTの「プロジェクト」機能が無料開放、チャット分岐機能も利用可能に
https://softantenna.com/blog/chatgpt-projects-free/
#softantenna_blog #Webサービス #chatgpt #openai
OpenAIがAI認定資格を発表、「ChatGPT」内で勉強から取得まで完結
https://japan.cnet.com/article/35237683/
#japan_cnet #ChatGPT
Nhiều người đang cố gắng tích hợp AI vào sản phẩm của họ, nhưng liệu chúng ta có đang tập trung sai cách không? Thay vì chỉ thêm các tính năng AI, liệu chúng ta có nên lo lắng rằng AI sẽ thay thế toàn bộ sản phẩm? Ví dụ: ChatGPT có thể xử lý CRM, quản lý dự án hoặc phân tích dữ liệu. Các team có thể đang tối ưu hóa các tính năng cho các sản phẩm mà có thể không cần thiết khi AI phát triển hơn. Bạn nghĩ sao?
#AI #productdevelopment #chatgpt #trituenhantao #phattrienphanmem #congnghe
https://www
Các công ty SaaS đang chạy đua để tích hợp AI vào sản phẩm của họ, nhưng liệu chúng ta có đang tập trung sai cách? Thay vì thêm các tính năng AI, có lẽ chúng ta nên lo lắng rằng AI sẽ thay thế hoàn toàn sản phẩm? 😬
CRM, quản lý dự án, phân tích - tất cả đều có thể được AI xử lý mà không cần giao diện người dùng. Bạn nghĩ sao? 🤔
#AI #SaaS #ChatGPT #TríTuệNhânTạo #CôngNghệ #TươngLai
https://www.reddit.com/r/SaaS/comments/1nb9kns/are_we_thinking_about_ai_in_our_products_the/
Content warning:mentalhealth
(03 Sep) These psychological tricks can get LLMs to respond to “forbidden” prompts
Study shows how patterns in LLM training data can lead to “parahuman” responses.
https://s.faithcollapsing.com/q246o
Archive: ais: https://archive.md/wip/idr49 ia: https://s.faithcollapsing.com/6wavh
#ai #chatgpt #llm #parahuman #persuasion #psychology #science #study #training

(03 Sep) These psychological tricks can get LLMs to respond to “forbidden” prompts https://s.faithcollapsing.com/q246o Archive: ais: https://archive.md/wip/idr49 ia: https://s.faithcollapsing.com/6wavh #ai #chatgpt #llm #parahuman #persuasion #psychology #science #study #training

(03 Sep) These psychological tricks can get LLMs to respond to “forbidden” prompts https://s.faithcollapsing.com/q246o Archive: ais: https://archive.md/wip/idr49 ia: https://s.faithcollapsing.com/6wavh #ai #chatgpt #llm #parahuman #persuasion #psychology #science #study #training
