Wie schlecht der Support von Zoom ist, merkt man erst, wenn man ihn braucht. Durch den AWS-Ausfall Anfang der Woche war offenbar auch das Ticketsystem von Zoom ausgefallen, um Probleme zu melden. Als ich die Telefonhotline von Zoom für Deutschland angerufen habe (deutsche Teleofonnummer), ging nur ein KI Assistent ran, der nur Englisch konnte. Die KI war natürlich zu blöd für Hilfe. Keine Weiterleitung an einen Mitarbeiter.
#AWS #AWSdown #Zoom #Support #KI #AI #ChatGPT
"UK justice ministry adopts ChatGPT to cut red tape "
What could possibly go wrong?
See, #ChatGPT is good for some things! I asked it to create a shell #script for me that created a self-contained #backup #archive of each of my #Docker #containers that could easily be restored and included all #artifacts that a container needs.
This is what ChatGPT gave me:
#!/usr/bin/env bash
set -euo pipefail
# Per-Container Self-Contained Docker Backup
# Creates one .tgz per container with everything needed to restore it on a new host.
# Requires: bash, docker CLI, jq, tar, gzip
#
# Usage:
# sudo ./docker-backup-per-container.sh [-o /path/to/output] [-c <container>]
# Examples:
# sudo ./docker-backup-per-container.sh
# sudo ./docker-backup-per-container.sh -o /mnt/backups
# sudo ./docker-backup-per-container.sh -c myapp_web_1
#
# Result:
# <output>/<container-name>.selfcontained.tgz
#
# Notes:
# - Volumes and bind mounts are copied INTO the container’s archive (no cross-archive dedup),
# so each archive is truly standalone.
# - A snapshot image (via `docker commit`) is saved and used by default on restore
# so the container's writable layer is preserved.
require() { command -v "$1" >/dev/null 2>&1 || { echo "ERROR: missing dependency: $1" >&2; exit 1; }; }
require docker
require jq
require tar
require gzip
OUT_DIR="${PWD}"
ONLY_CONTAINER=""
while [[ $# -gt 0 ]]; do
case "$1" in
-o|--output) OUT_DIR="$2"; shift 2 ;;
-c|--container) ONLY_CONTAINER="$2"; shift 2 ;;
*) echo "Unknown arg: $1"; exit 1 ;;
esac
done
mkdir -p "$OUT_DIR"
timestamp="$(date +%Y%m%d-%H%M%S)"
# Resolve container list
if [[ -n "$ONLY_CONTAINER" ]]; then
mapfile -t CONTAINERS < <(docker ps -aqf "name=${ONLY_CONTAINER}" || true)
if [[ ${#CONTAINERS[@]} -eq 0 ]]; then
# Maybe it's an exact id
if docker inspect "$ONLY_CONTAINER" >/dev/null 2>&1; then
CONTAINERS=("$ONLY_CONTAINER")
else
echo "No container matches: $ONLY_CONTAINER" >&2; exit 2
fi
fi
else
mapfile -t CONTAINERS < <(docker ps -aq)
fi
if [[ ${#CONTAINERS[@]} -eq 0 ]]; then
echo "No containers found."; exit 0
fi
echo "Output directory: $OUT_DIR"
echo "Backing up ${#CONTAINERS[@]} container(s)..."
# --- helper to write the per-archive restore script ---
write_restore_script() {
local cdir="$1"
cat >"$cdir/restore.sh" <<'EOS'
#!/usr/bin/env bash
set -euo pipefail
# Self-contained restore for THIS container only.
# Usage: sudo ./restore.sh
HERE="$(cd "$(dirname "${BASH_SOURCE[0]}")" && pwd)"
INSPECT="$HERE/container.inspect.json"
ENVFILE="$HERE/env.list"
if ! command -v jq >/dev/null; then echo "ERROR: jq is required." >&2; exit 1; fi
if ! command -v docker >/dev/null; then echo "ERROR: docker is required." >&2; exit 1; fi
NAME=$(jq -r '.[0].Name|ltrimstr("/")' "$INSPECT")
ORIG_IMAGE=$(jq -r '.[0].Config.Image' "$INSPECT")
echo "Restoring container: $NAME"
# 1) Networks (best-effort)
if [[ -s "$HERE/networks.list" ]]; then
while IFS= read -r NET; do
[[ -z "$NET" ]] && continue
JSON="$HERE/networks/$NET.inspect.json"
if ! docker network inspect "$NET" >/dev/null 2>&1; then
if [[ -f "$JSON" ]]; then
DRV=$(jq -r '.[0].Driver' "$JSON")
SUBNETS=$(jq -r '.[0].IPAM.Config // [] | map("--subnet="+(.Subnet // "")) | join(" ")' "$JSON")
echo "Creating network: $NET (driver=$DRV)"
# shellcheck disable=SC2086
docker network create --driver "$DRV" $SUBNETS "$NET" >/dev/null || docker network create "$NET" >/dev/null
else
docker network create "$NET" >/dev/null || true
fi
fi
done < "$HERE/networks.list"
fi
# 2) Volumes (create and refill)
if [[ -s "$HERE/volumes.list" ]]; then
while IFS= read -r V; do
[[ -z "$V" ]] && continue
TAR="$HERE/volumes/${V}.tar.gz"
if ! docker volume inspect "$V" >/dev/null 2>&1; then
echo "Creating volume: $V"
docker volume create "$V" >/dev/null
fi
if [[ -f "$TAR" ]]; then
echo "Restoring data into volume: $V"
docker run --rm -v "$V":/data alpine sh -c "cd /data && tar -xpf -" < "$TAR"
else
echo " ! Missing archive for volume $V"
fi
done < "$HERE/volumes.list"
fi
# 3) Bind mounts (restore into host paths)
if [[ -s "$HERE/binds.list" ]]; then
while IFS= read -r P; do
[[ -z "$P" ]] && continue
SAFE="$(echo "$P" | sed 's|/|_|g')"
TAR="$HERE/binds/${SAFE}.tar.gz"
if [[ -f "$TAR" ]]; then
echo "Restoring bind path: $P"
mkdir -p "$P"
tar --numeric-owner -xpf "$TAR" -C /
else
echo " ! Missing archive for bind path $P"
fi
done < "$HERE/binds.list"
fi
# 4) Load images (snapshot preferred)
IMG_SNAPSHOT="$HERE/image.snapshot.tar.gz"
IMG_ORIG="$HERE/image.original.tar.gz"
USE_IMAGE=""
if [[ -f "$IMG_SNAPSHOT" ]]; then
echo "Loading snapshot image..."
docker load -i "$IMG_SNAPSHOT" >/dev/null
# get the loaded image ID to use
USE_IMAGE=$(docker image ls --format '{{.Repository}}:{{.Tag}} {{.ID}}' | awk 'NR==1{print $1}')
elif [[ -f "$IMG_ORIG" ]]; then
echo "Loading original image..."
docker load -i "$IMG_ORIG" >/dev/null
USE_IMAGE="$ORIG_IMAGE"
else
echo " ! No image tar found; pulling $ORIG_IMAGE (may fail if private)"
docker pull "$ORIG_IMAGE" || true
USE_IMAGE="$ORIG_IMAGE"
fi
# 5) Recreate container from inspect (with env/ports/mounts/etc.)
# Build docker create command
CMD=(docker create --name "$NAME")
# Hostname, workdir, user, restart
HOSTNAME=$(jq -r '.[0].Config.Hostname // empty' "$INSPECT")
[[ -n "$HOSTNAME" ]] && CMD+=(--hostname "$HOSTNAME")
WORKDIR=$(jq -r '.[0].Config.WorkingDir // empty' "$INSPECT")
[[ -n "$WORKDIR" ]] && CMD+=(--workdir "$WORKDIR")
USER=$(jq -r '.[0].Config.User // empty' "$INSPECT")
[[ -n "$USER" ]] && CMD+=(--user "$USER")
RESTART=$(jq -r '.[0].HostConfig.RestartPolicy.Name // empty' "$INSPECT")
[[ -n "$RESTART" && "$RESTART" != "no" ]] && CMD+=(--restart "$RESTART")
# Logging
LOGDRV=$(jq -r '.[0].HostConfig.LogConfig.Type // empty' "$INSPECT")
[[ -n "$LOGDRV" && "$LOGDRV" != "json-file" ]] && CMD+=(--log-driver "$LOGDRV")
while IFS= read -r LOPT; do CMD+=(--log-opt "$LOPT"); done < <(
jq -r '.[0].HostConfig.LogConfig.Config // {} | to_entries[] | "\(.key)=\(.value)"' "$INSPECT"
)
# DNS, ExtraHosts
while IFS= read -r D; do CMD+=(--dns "$D"); done < <(jq -r '.[0].HostConfig.Dns // [] | .[]' "$INSPECT")
while IFS= read -r H; do CMD+=(--add-host "$H"); done < <(jq -r '.[0].HostConfig.ExtraHosts // [] | .[]' "$INSPECT")
# Caps, devices, sysctls, ulimits
while IFS= read -r C; do CMD+=(--cap-add "$C"); done < <(jq -r '.[0].HostConfig.CapAdd // [] | .[]' "$INSPECT")
while IFS= read -r D; do CMD+=(--device "$D"); done < <(
jq -r '.[0].HostConfig.Devices // [] | .[] | (.PathOnHost + ":" + (.PathInContainer // .PathOnHost) + ":" + (.CgroupPermissions // "rwm"))' "$INSPECT"
)
while IFS= read -r S; do CMD+=(--sysctl "$S"); done < <(
jq -r '.[0].HostConfig.Sysctls // {} | to_entries[] | "\(.key)=\(.value)"' "$INSPECT"
)
while IFS= read -r U; do CMD+=(--ulimit "$U"); done < <(
jq -r '.[0].HostConfig.Ulimits // [] | .[] | (.Name + "=" + (.Soft|tostring) + ":" + (.Hard|tostring))' "$INSPECT"
)
# Mounts (volumes + binds) – now that data is on host/volumes
while IFS= read -r M; do CMD+=(--mount "$M"); done < <(
jq -r '.[0].Mounts // [] |
map("type="+.Type+",source="+(.Name // .Source)+",target="+.Destination + (if .RW==true then "" else ",readonly" end))[]' "$INSPECT"
)
# Ports
while IFS= read -r P; do CMD+=(--publish "$P"); done < <(
jq -r '
([.[0].HostConfig.PortBindings // {}] | .[0]) as $pb |
($pb | to_entries[]?) as $e |
($e.key | capture("(?<cport>\\d+)/(?:tcp|udp)?").cport) as $CP |
($e.value[]? | "\(.HostIp // "")" + (if .HostIp then ":" else "" end) + (.HostPort // "") + ":" + $CP) ' "$INSPECT" 2>/dev/null
)
# Env
[[ -s "$ENVFILE" ]] && CMD+=(--env-file "$ENVFILE")
# Primary network
PRIMARY_NET=$(jq -r '.[0].NetworkSettings.Networks | keys[0] // empty' "$INSPECT")
[[ -n "$PRIMARY_NET" ]] && CMD+=(--network "$PRIMARY_NET")
# EntryPoint / Cmd
ENTRY_JSON=$(jq -c '.[0].Config.Entrypoint // []' "$INSPECT")
CMD_JSON=$(jq -c '.[0].Config.Cmd // []' "$INSPECT")
if [[ "$ENTRY_JSON" != "[]" && "$ENTRY_JSON" != "null" ]]; then
ENTRYPOINT=$(jq -r '.[0].Config.Entrypoint | join(" ")' "$INSPECT")
CMD+=(--entrypoint "$ENTRYPOINT")
fi
CMD+=("$USE_IMAGE")
if [[ "$CMD_JSON" != "[]" && "$CMD_JSON" != "null" ]]; then
# append original CMD array
while IFS= read -r ARG; do CMD+=("$ARG"); done < <(jq -r '.[0].Config.Cmd[]' "$INSPECT")
fi
echo "Creating container..."
# shellcheck disable=SC2068
CID=$(${CMD[@]})
# Attach to additional networks, if any
if [[ -s "$HERE/networks.list" ]]; then
i=0
while IFS= read -r NET; do
[[ -z "$NET" ]] && continue
if [[ $i -gt 0 ]]; then docker network connect "$NET" "$NAME" || true; fi
((i++))
done < "$HERE/networks.list"
fi
echo "Starting container..."
docker start "$NAME" >/dev/null
echo "✅ Restore complete: $NAME"
EOS
chmod +x "$cdir/restore.sh"
}
# --- main loop ---
for cid in "${CONTAINERS[@]}"; do
cname="$(docker inspect -f '{{.Name}}' "$cid" | sed 's|^/||')"
workdir="$(mktemp -d)"
cdir="$workdir/$cname"
mkdir -p "$cdir"/{volumes,binds,networks}
echo "▶ Backing up: $cname"
# 1) Inspect + env
docker inspect "$cid" > "$cdir/container.inspect.json"
jq -r '.[0].Config.Env[]?' "$cdir/container.inspect.json" > "$cdir/env.list" || true
# 2) Network metadata local to this container
jq -r '.[0].NetworkSettings.Networks | keys[]?' "$cdir/container.inspect.json" > "$cdir/networks.list" || true
while IFS= read -r net; do
[[ -z "$net" ]] && continue
docker network inspect "$net" > "$cdir/networks/$net.inspect.json"
done < "$cdir/networks.list" || true
# 3) Images: original + snapshot (writable layer)
image="$(jq -r '.[0].Config.Image' "$cdir/container.inspect.json")"
echo " ↳ Saving original image: $image"
docker save "$image" | gzip -1 > "$cdir/image.original.tar.gz"
snapshot_tag="${cname}@backup:${timestamp}"
echo " ↳ Committing snapshot: $snapshot_tag"
docker commit "$cid" "$snapshot_tag" >/dev/null
docker save "$snapshot_tag" | gzip -1 > "$cdir/image.snapshot.tar.gz"
docker image rm "$snapshot_tag" >/dev/null 2>&1 || true
# 4) Volumes used by this container
jq -r '.[]? | .Mounts[]? | select(.Type=="volume") | .Name' "$cdir/container.inspect.json" > "$cdir/volumes.list" || true
while IFS= read -r vol; do
[[ -z "$vol" ]] && continue
echo " ↳ Backing volume: $vol"
docker volume inspect "$vol" > "$cdir/volumes/${vol}.inspect.json"
docker run --rm -v "$vol":/data:ro alpine sh -c "cd /data && tar -cf - ." | gzip -1 > "$cdir/volumes/${vol}.tar.gz"
done < "$cdir/volumes.list" || true
# 5) Bind mounts used by this container
jq -r '.[]? | .Mounts[]? | select(.Type=="bind") | .Source' "$cdir/container.inspect.json" > "$cdir/binds.list" || true
: > "$cdir/binds/FAILED_BIND_PATHS.txt"
while IFS= read -r bind; do
[[ -z "$bind" ]] && continue
safe="$(echo "$bind" | sed 's|/|_|g')"
echo " ↳ Backing bind path: $bind"
if tar --numeric-owner -C / -cf - "${bind#/}" 2>/dev/null | gzip -1 > "$cdir/binds/${safe}.tar.gz"; then
:
else
echo "$bind" >> "$cdir/binds/FAILED_BIND_PATHS.txt"
echo " ! WARNING: could not back up $bind (permissions?)"
rm -f "$cdir/binds/${safe}.tar.gz"
fi
done < "$cdir/binds.list" || true
if [[ ! -s "$cdir/binds/FAILED_BIND_PATHS.txt" ]]; then rm -f "$cdir/binds/FAILED_BIND_PATHS.txt"; fi
# 6) Self-contained restore script
write_restore_script "$cdir"
# 7) Helpful README
cat > "$cdir/README.txt" <<EOF
Self-contained backup for container: $cname
Created: $(date -u +%Y-%m-%dT%H:%M:%SZ)
Restore on a new host:
1) Extract this archive:
sudo tar -xpf ${cname}.selfcontained.tgz
cd $cname
2) Run:
sudo ./restore.sh
Notes:
- Networks/volumes are recreated if missing.
- Snapshot image (image.snapshot.tar.gz) is used by default so the container's writable layer is preserved.
- If any bind mount couldn’t be backed up, it's listed in binds/FAILED_BIND_PATHS.txt (not present means all good).
- If resource names already exist on the target host (same volume/network/container name), you may need to remove or rename them first.
EOF
# 8) Package single self-contained archive
( cd "$workdir" && tar -czf "${cname}.selfcontained.tgz" "$cname" )
mv "$workdir/${cname}.selfcontained.tgz" "$OUT_DIR/"
echo " ✅ Wrote: $OUT_DIR/${cname}.selfcontained.tgz"
rm -rf "$workdir"
done
echo "All done."
KI: Jedes Kind weiß mehr über die Welt als ChatGPT - Meinung | Spiegel Online
Die künstliche Intelligenz kann unendlich viel, hat aber von der Realität keine Ahnung. Die Maschinen sind, auf Texte gestützt, im Wesentlichen immer noch Papiertiger.
https://www.spiegel.de/politik/ki-jedes-kind-weiss-mehr-ueber-die-welt-als-chatgpt-meinung-a-5e35047d-2479-4d8e-aca0-cf0e7f734d7b#ref=rss
#GWB - ChatGPT Atlas vs Google Chrome: Die neuen KI-Browser im Wettlauf – unterscheiden sich derzeit kaum (Video) - https://www.googlewatchblog.de/2025/10/chatgpt-atlas-vs-google-chrome-die-neuen-ki-browser-im-wettlauf-unterscheiden-sich-derzeit-kaum-video/ #googlechrome #chatgpt #Google #gemini #openai
المنصة الجديدة توحّد بيانات الشركات في نظام واحد يعتمد على الذكاء الاصطناعي لتحليل المعلومات واتخاذ القرارات بشكل أسرع وأكثر دقة.
📈 هذه الخطوة تمثل انتقال ChatGPT من مجرد أداة محادثة ذكية إلى نظام تحليل مؤسسي متكامل، يمكنه دعم القطاعات المالية والإدارية بشكل غير مسبوق.
💡 خطوة واضحة نحو دمج الذكاء الاصطناعي في البنية الأساسية للأعمال الحديثة.
#AI #OpenAI #ChatGPT #TechNews #DataIntegration #MachineLearning #DigitalTransformation

روبوتات المحادثة الذكية تُبالغ في مجاملة المستخدمين وتؤيد سلوكياتهم الخاطئة
[/wd/wp-content/uploads/2025/10/chatbots.jpg]
* دراسة علمية من ستانفورد وهارفارد تكشف أن روبوتات الدردشة تؤيد سلوك المستخدمين
بنسبة 50% أكثر من البشر
* الاختبارات شملت 11 روبوت محادثة بينها ChatGPT و Google Gemini و Claude و
Llama
* المجاملة المفرطة تجعل المستخدمين أقل استعدادًا للاعتذار وأكثر تبريرًا
لسلوكياتهم حتى لو انتهكت المعايير الاجتماعية
كشفت دراسة علمية حديثة نشرتها مجلة عن ميل روبوتات المحادثة الذكية للمبالغة في
مجاملة المستخدمين والموافقة على آرائهم، حتى عندما تكون هذه الآراء خاطئة أو تنطوي
على سلوكيات إشكالية.
أجرى باحثون من جامعتي ستانفورد وهارفارد ومؤسسات بحثية أخرى اختبارات شملت 11
روبوت محادثة، من بينها الإصدارات الأخيرة من ChatGPT و Google Gemini و Claude
وLlama. أظهرت النتائج أن هذه الروبوتات تؤيد سلوك المستخدمين بنسبة 50% أكثر
مقارنة بالردود البشرية.
اعتمدت الدراسة على مقارنة استجابات الروبوتات مع تعليقات مستخدمي منصة Reddit في
قسم “Am I the Asshole” الذي يطلب فيه الأشخاص من المجتمع الحكم على تصرفاتهم. جاءت
ردود المستخدمين البشر أكثر صرامة في تقييم السلوكيات مقارنة بالروبوتات التي أظهرت
تساهلًا ملحوظًا.
في إحدى الحالات، كتب شخص عن قيامه بتعليق كيس قمامة على غصن شجرة بدلًا من رميه في
المكان المخصص، فأشاد ChatGPT-4o بـ “نيته في التنظيف” ووصفها بأنها “جديرة
بالثناء”. والأكثر إثارة للقلق، أن الروبوتات واصلت تأييد المستخدمين حتى عندما
كانت تصرفاتهم غير مسؤولة أو خادعة، بل وحتى عند ذكر إيذاء النفس، وفقًا لتقرير
نشرته صحيفة الغارديان.
لفهم تأثير هذه المجاملة المفرطة، أجرى الباحثون اختبارًا شمل ألف مشارك ناقشوا
سيناريوهات حقيقية أو افتراضية مع روبوتات محادثة متاحة للعموم، لكن بعضها أعيدت
برمجته لتقليل المديح.
ذو صلة |
أظهرت النتائج أن من تلقوا ردودًا مجاملة كانوا أقل استعدادًا لحل الخلافات، وشعروا
بمزيد من التبرير لسلوكهم حتى لو خالف المعايير الاجتماعية. نادرًا ما شجعت
الروبوتات التقليدية المستخدمين على رؤية الأمور من منظور الطرف الآخر.
علّق الدكتور ألكساندر لافر، الباحث في التقنيات الناشئة بجامعة وينشستر، قائلًا إن
تأثير الردود المجاملة على جميع المستخدمين وليس الفئات الضعيفة فقط يبرز خطورة هذه
المشكلة، مشددًا على مسؤولية المطورين في بناء أنظمة مفيدة حقًا للمستخدمين.
تكتسب هذه القضية أهمية خاصة في ظل الاستخدام الواسع لروبوتات المحادثة. كشف تقرير
حديث من Benton Institute for Broadband & Society أن 30% من المراهقين يلجؤون
للذكاء الاصطناعي بدلًا من البشر في “المحادثات الجادة”.
حاليًا، تواجه OpenAI دعوى قضائية تتهمها بتسهيل انتحار مراهق، كما رُفعت دعوتان ضد
شركة Character AI بعد حالتي انتحار لمراهقين قضيا شهورًا في التواصل مع روبوتات
الدردشة الخاصة بها.
الوسوم
🔗 https://www.tech-wd.com/wd/2025/10/25/روبوتات-المحادثة-الذكية-تُبالغ-في-مجا/
#ChatGPT #Claude #Google_Gemini #Llama #الذكاء_الاصطناعي

تطبيق ChatGPT يضيف تكاملات مباشرة مع Spotify و Canva و Figma وتطبيقات أخرى
[/wd/wp-content/uploads/2025/10/chatgpt-canva.jpg]
* أطلقت OpenAI ميزة جديدة تتيح ربط الحسابات الشخصية بـ ChatGPT لتنفيذ مهام
مباشرة عبر تطبيقات مثل Spotify و Canva و Figma
* التكامل يشمل حاليًا 7 تطبيقات رئيسية مع خطط لإضافة DoorDash و Uber و Walmart
لاحقًا هذا العام
* الخدمة متاحة حاليًا للمستخدمين في الولايات المتحدة وكندا فقط
أعلنت OpenAI عن إطلاق تكاملات تطبيقية جديدة ضمن ChatGPT تسمح للمستخدمين بربط
حساباتهم مباشرة مع المساعد الذكي وتكليفه بمهام محددة. من خلال هذه الميزة، يمكن
للمستخدم مثلاً أن يطلب من ChatGPT إنشاء قوائم تشغيل موسيقية مخصصة عبر Spotify
تظهر تلقائيًا في التطبيق.
لتفعيل التكامل، يكفي كتابة اسم التطبيق المراد استخدامه في بداية الأمر النصي،
ليقوم ChatGPT بإرشاد المستخدم خلال خطوات تسجيل الدخول وربط الحساب. كما يمكن
إعداد جميع التكاملات دفعة واحدة عبر قائمة الإعدادات من خلال قسم “Apps and
Connectors”، حيث يستطيع المستخدم تصفح التطبيقات المتاحة واختيار ما يناسبه.
تجدر الإشارة إلى أن ربط الحسابات يعني مشاركة بيانات التطبيقات مع ChatGPT. عند
ربط حساب Spotify مثلاً، يحصل ChatGPT على إمكانية الوصول إلى قوائم التشغيل وسجل
الاستماع والمعلومات الشخصية الأخرى. رغم أن مشاركة هذه البيانات تساعد في تخصيص
التجربة، إلا أن OpenAI توصي بمراجعة الأذونات الممنوحة قبل المتابعة. ويمكن فصل أي
تطبيق في أي وقت من قائمة الإعدادات.
التطبيقات المتاحة حاليًا
يوفر تكامل Booking.com مساعدة للمسافرين في البحث عن أماكن الإقامة. بعد ربط
الحساب، يمكن للمستخدم أن يطلب من ChatGPT العثور على فنادق في مدينة معينة بناءً
على التواريخ والميزانية وعدد الأشخاص، مع إمكانية تحديد تفضيلات مثل القرب من
وسائل النقل العام أو توفر وجبة الإفطار. وعند اختيار فندق مناسب، يمكن إتمام الحجز
مباشرة عبر موقع Booking.com.
أما تكامل Canva فيستهدف مصممي الجرافيك وكل من يحتاج إنشاء محتوى بصري بسرعة، سواء
لمنشورات وسائل التواصل الاجتماعي أو الملصقات أو عروض العمل التقديمية. يمكن
للمستخدم طلب تصميم مثل “عرض تقديمي بنسبة 16:9 عن خارطة الطريق للربع الرابع” مع
تحديد الخطوط والألوان والأبعاد المطلوبة. وعلى الرغم من أن التصاميم المُنتجة
بالذكاء الاصطناعي قد تحتوي على أخطاء أحيانًا، إلا أنها توفر نقطة انطلاق يمكن
تحسينها لاحقًا داخل Canva.
من جهته، يساعد تكامل Coursera المستخدمين في اكتشاف الدورات التعليمية المناسبة
لمستواهم. يمكن طلب “دورة متوسطة المستوى في Python” ثم مقارنة الخيارات المتاحة من
حيث التقييم والمدة الزمنية والتكلفة قبل التسجيل، مع توفير ملخص سريع لمحتوى كل
دورة.
بينما يتيح تكامل Expedia عرض خيارات الفنادق والرحلات الجوية دون مغادرة المحادثة.
يمكن البحث عن رحلات تتناسب مع التواريخ والميزانية وعدد المسافرين، مع إمكانية
تضييق النتائج بشروط مثل “إظهار فنادق 4 نجوم فقط” ثم إنهاء الحجز عبر موقع
Expedia.
قد يهمك |
بالنسبة لـ Figma، يمكن للمستخدمين طلب إنشاء رسوم بيانية ومخططات انسيابية لتحويل
الأفكار إلى تصورات مرئية. كما يمكن رفع ملفات وطلب إنشاء خارطة طريق للمنتج تتضمن
المعالم والمخرجات والمواعيد النهائية.
يُعد Spotify من أبرز التكاملات المتاحة، حيث يمكن إنشاء قوائم تشغيل بناءً على
الحالة المزاجية أو تضمين أغانٍ لفنان معين فقط. يستطيع ChatGPT أيضًا اقتراح
فنانين جدد وقوائم تشغيل وكتب صوتية وحلقات بودكاست، بالإضافة إلى إضافة أو حذف
عناصر من مكتبة Spotify نيابة عن المستخدم.
أخيرًا، يسهّل تكامل Zillow عملية البحث عن منزل جديد من خلال أوامر نصية بسيطة.
يمكن تحديد معايير مثل النطاق السعري وعدد غرف النوم والأحياء المفضلة، مما يجعل
البحث أكثر كفاءة وملاءمة للاحتياجات الفردية.
خطط التوسع المستقبلية
أعلنت OpenAI عن خطط لإضافة شركاء جدد قريبًا، تشمل DoorDash و OpenTable و Target
و Uber و Walmart، على أن يتم إطلاقها في وقت لاحق من العام الحالي. يقتصر توفر
التكاملات حاليًا على المستخدمين في الولايات المتحدة وكندا، بينما لا تزال أوروبا
والمملكة المتحدة خارج نطاق التغطية.
الوسوم
#ChatGPT #OpenAI #الذكاء_الاصطناعي

Die Browser-Kriege kehren mit Künstlicher Intelligenz zurück
Nach Jahren der Ruhe kommt frischer Wind in den Markt für Webbrowser. Neue KI-Technologien sorgen dafür, dass sich die Konkurrenz der Anbieter verstärkt.
OpenAI startet Atlas – den ChatGPT-Browser
Die Browser-K
https://www.apfeltalk.de/magazin/news/die-browser-kriege-kehren-mit-kuenstlicher-intelligenz-zurueck/
#News #Services #Sicherheit #Atlas #Browser #chatGPT #Datenschutz #Internet #KI #Microsoft #OpenAI #Sicherheit
“… more than 9% of all news coverage contained AI-generated text, while #AI text has also appeared on the opinion pages of The New York Times, The Wall Street Journal, and The Washington Post.”
https://www.businesswire.com/news/home/20251022710198/en/Research-Study-Uncovers-Extent-of-AI-Created-Content-in-American-News-and-Opinion-Pages
“About one-in-ten U.S. adults say they get news often (2%) or sometimes (7%) from AI #chatbots like #ChatGPT or #Gemini.”
https://www.pewresearch.org/short-reads/2025/10/01/relatively-few-americans-are-getting-news-from-ai-chatbots-like-chatgpt/
“AI assistants make widespread errors about the news, new research shows:
Overall, 45% of the AI responses studied contained at least one significant issue, with 81% having some form of problem, the research showed.
Some 72% of responses by Gemini, had significant sourcing issues, compared to below 25% for all other assistants, it said.”
https://www.bbc.com/mediacentre/2025/bbc-research-shows-issues-with-answers-from-artificial-intelligence-assistants
This is worrying… and I guess growing…
#OpenAI launched a new #ChatGPT feature for Business, Enterprise, and Education users, powered by GPT‑5, that allows the chatbot to search through #workplace information from tools like #Slack, #SharePoint, #GoogleDrive, and #GitHub. This feature, similar to Anthropic’s “Skills” tool, enables users to utilise ChatGPT as a conversational search engine for workplace data. https://www.theverge.com/news/806046/openai-chatgpt-company-knowledge-update?eicker.news #tech #media #news
Walmart is rolling out AI assistant Sparky, and ChatGPT integration could make instant checkout a thing. 🛒🤖
Meanwhile, Sesame Street just launched its own Roblox world! 🎮
The AwesomeCast crew dives into both worlds of AI and nostalgia.
🎧 Full episode →
https://www.sorgatronmedia.com/blog/awesomecast-754-openais-new-browser-changes-everything-chatgpt-atlas-hands-on
@sorgatron @profpod
#AwesomeCast #Walmart #ChatGPT #OpenAI #SesameStreet #Roblox #TechPodcast #AIshopping