opensource

Back Open Paginator
14.05.2026 18:15
joelindien (@joelindien@mastodon.social)

🐧 Actu logiciel libre du 14/05/2026

• System76’s New Pangolin Pro Brings Ryzen AI Power to a 3.64 lb Linux Laptop
[Linux Today] linuxtoday.com/blog/system76s-

• Three stable kernels for Thursday
[LWN.net] lwn.net/Articles/1072849/




Show Original Post


14.05.2026 18:11
jaenatech (@jaenatech@mastodon.social)

Ситуація з ініціативою Fedora AI Developer Desktop - lin.in.ua/novyny/2026/05/%d1%8




Show Original Post


14.05.2026 18:09
jaenatech (@jaenatech@mastodon.social)

Занурення почалося: Subnautica 2 вже доступна на PC та Xbox Series і отримує чудові відгуки гравців ' - gagadget.com/uk/710297-zanuren




Show Original Post


14.05.2026 18:08
AI_BEAR_NEWS (@AI_BEAR_NEWS@mastodon.social)

Vuoi un assistente IA che gira sul tuo PC e non manda i dati a nessuno?

Ollama + Mistral Small. Installi, scarichi il modello, e hai un chatbot locale che funziona offline.

Costo: 0€. Privacy: totale. Setup: 15 minuti.

Segui per altri consigli




Show Original Post


14.05.2026 18:04
toxo77 (@toxo77@ruhr.social)

2006: Opensource hat den Vorteil, dass der Code öffentlich ist und Schwachstellen gefunden werden können.

2026: Opensource hat den Nachteil, dass der Code öffentlich ist und Schwachstellen gefunden werden können.

#opensource #linux #weeklyRCE




Show Original Post


14.05.2026 18:03
solomonneas (@solomonneas@infosec.exchange)

Dev tooling watch:

🛠️ Ollama v0.24.0-rc0: Codex app integration, MLX memory trace logging, plus stable v0.23.4 adds vision image input for opencode.

🛠️ Vercel AI SDK ai@6.0.182: fixes tool-result file URL downloads for generated-file workflows.

🛠️ Cursor 2026-05-13: managed dev environments add multi-repo setup, Dockerfile config, scoped secrets, audits, rollback.

#DevTools #OpenSource #AI

solomonneas.dev/intel




Show Original Post


14.05.2026 18:02
techwire (@techwire@social.gamefan.net)

AMD’s FSR 4.1 upscaling tech is coming to older graphics cards

Assassin’s Creed Shadows is just one of the games that supports FSR 4.1. | Image: Ubisoft AMD is bringing its FSR 4.1 upscaling tech to older graphics cards. In an announcement on X, Jack Huynh, AMD's head of computing …

theverge.com/tech/930376/amd-f

#Tech #Technology #TechNews #AI #Gadgets #Software #Cybersecurity #Apple #Google #Microsoft #Startup #OpenSource #TheVerge [The Verge]




Show Original Post


14.05.2026 18:02
gj_bamberg (@gj_bamberg@mastodon.social)

Tech-Oligarchen hassen diesen Trick ⛓️‍💥

Timm und Alexander haben den Digitalen Unabhängigkeitstag in Bamberg initiiert. Jeden ersten Sonntag im Monat gehen sie gemeinsam mit dir einen kleinen Schritt: weg von Tech-Oligarchen Richtung digitaler Freiheit.





Show Original Post


14.05.2026 18:01
Arint (@Arint@arint.info)

RT @stableAPY: Ich kann immer noch nicht fassen, dass meine 3060 12GB Qwen 3.6 35B mit 40 tok/s ausführt. Diese Karte kostet gebraucht etwa 200$, während alle über extrem teure 128GB Unified Memory oder RTX 6000-Karten schwärmen. Eine einzelne 3060 12GB kann für erste lokale KI-Experimente weit von ausreichend entfernt sein – sie ist günstig und in Kombination mit etwas RAM und einem einigermaßen ordentlichen CPU leistet sie ihren Dienst. Natürlich gibt es Decode-Einbrüche, wenn der Kontext wächst, und man kann keine mehreren Sub-Agents gleichzeitig ausführen, aber es ist ein günstiger Einstiegspunkt. Zum Beispiel paart sie sich sehr gut mit meiner 3090: 3090 läuft als Main-Agent 35B -np 2 = so kann ich 2 parallele Agents haben 3060 als Sub-Agent 35B -np1 Auf diese Weise kann mein Main-Hermes Arbeit an diesen Sub-Agent delegieren, während er an etwas anderem arbeitet. Ich führe auch einen Hermes-Cron-Job aus, damit sie den Main-Agent nicht überlasten, und es stört mich nicht, dass es langsamer ist, weil es im Hintergrund passiert.

mehr auf Arint.info

#3060 #Hardware #KI #LocalAI #OpenSource #Qwen #arint_info

https://x.com/stableAPY/status/2054846979755200583#m




Show Original Post


14.05.2026 18:01
Arint (@Arint@arint.info)

RT @QingQ77: Eine auf Leistung optimierte Fork von llama.cpp, die DFlash-spezifulative Dekodierung, TurboQuant/TCQ-KV-Cache-Kompression und adaptive Entwurfssteuerung integriert, um bei gleicher GPU-Speichergröße eine bis zu dreifache Beschleunigung der Inferenz und eine 7,5-fache Erweiterung der Kontextkapazität zu erreichen.

mehr auf Arint.info

#AI #DeepLearning #GPU #llama #MachineLearning #OpenSource #arint_info

https://x.com/QingQ77/status/2054754069563179017#m




Show Original Post


14.05.2026 18:00
LAS (@LAS@floss.social)

Long time KDE contributor, Aleix Pol's talk "Buildstream, KDE and reflecting on software compilation" explores the adoption of Buildstream in KDE with the goal on imporving how we deliver software.
#kde #apps #buildstream #linux #opensource





Show Original Post


14.05.2026 17:59
pgdata2026 (@pgdata2026@mastodon.social)

Level up your SQL skills with Sneha Patil at PG DATA 2026 on June 4!

In “Think Like Postgres: Smart SQL Tips,” Sneha shares practical techniques for writing faster, cleaner, and more scalable SQL queries 🐘

Learn how to work with the Postgres query planner, indexes, joins, CTEs, window functions, JSONB, UPSERT, and more

Join us: 2026.pg-data.org/





Show Original Post


1 ...28 29 30 31 32 33 34 35 36 37 38 ...6492
UP