+ A
A -
جريدة الوطن

وأضاف «أي معلومات تقوم بتحميلها أو كتابتها في الدردشة يجب ألا تحوي على معلومات حساسة أو خاصة، وإلا فقد ينتهي بها الأمر في ردود شخص آخر». وذكر أنه «من الأفضل استخدام معلومات عامة وإذا كان هناك حاجة لمعلومات حساسة في الرد فقم بتعتيمها أو استخدم أسماء مستعارة ومعلومات افتراضية».

وأوضح مكويغن أن هناك 5 حقائق على الأقل يجب ألا تشاركها مع روبوتات الذكاء الاصطناعي هي معلومات بطاقة الائتمان والعناوين والأسماء وأعياد الميلاد وأرقام الهوية.

كيف تحادث روبوتات الدردشة؟

يقول بول بيشوف المدافع عن خصوصية المستهلك في شركة «كومبارتيك» (Comparitech) «إن أحد أسهل الطرق للبقاء بأمان عند استخدام روبوتات الدردشات الآلية هو التظاهر أن محادثاتك ليست خاصة على الإطلاق، فقط تخيل أنك تنشر محادثاتك على الإنترنت ليراها العالم بأسره».

وأضاف بول «قاعدة جيدة إذا كنت لن تنشر ما تكتبه علنا على وسائل التواصل الاجتماعي، فلا ينبغي عليك مشاركته مع روبوت محادثة يعمل بالذكاء الاصطناعي».

وأي معلومات تشاركها في دردشة الذكاء الاصطناعي قد تضاف إلى قاعدة البيانات التي يستخدمها روبوت الدردشة لتوليد الإجابات لمستخدمين آخرين.

ويمكن عن غير قصد إعطاء معلومات شخصية إلى روبوت المحادثة الذي يشاركها بعد ذلك مع مستخدمين آخرين، ناهيك عن مسؤول روبوت المحادثة.

وبين الحماسة لتبني تقنية الذكاء الاصطناعي في كل مناحي الحياة، والإحساس بالخوف من تداعياتها، يجد عديدون صعوبة في تكوين رأي حاسم حول الذكاء الاصطناعي؛ فمن جهة يُفتتن البعض بالقدرات الفائقة لهذا الذكاء الاستثنائي، الذي يتمكن بسرعة فائقة من حل مشكلات معقدة بدقة متناهية، وتفوُّقه في مجالات عدة على رأسها العلوم، ومن جهة أخرى تتزايد المخاوف من أن تصبح هذه الأدوات خارجة عن السيطرة، أو أن تؤثر سلبًا على طريقة تفاعلنا مع العالم من حولنا.

ولأن الخوف هو عدوّ الإنسان الأول، فإن هذا التردد يعكس صراعًا بين الرغبة في الاستفادة من الابتكارات الحديثة، والقلق من تأثيراتها الجانبية غير المتوقعة.

وبالرغم من «طوفان الذكاء الاصطناعي» والإقبال الجنوني عليه، فإن بعض التقارير الأخيرة سلطت الضوء على تراجع استخدام الذكاء الاصطناعي في بعض الأوساط. ووفقا لمسح حديث أجرته منصة Arize AI، فإن أكثر من نصف الشركات الأميركية الكبرى (56 %) تعتبر الذكاء الاصطناعي تهديدا محتملا. وهناك دراسة أخرى أجرتها Nikkei Research أفادت بأن أكثر من 40 % من الشركات اليابانية لا تنوي استخدام الذكاء الاصطناعي؛ بسبب التكاليف الباهظة المرتبطة به.

وتأتي هذه المخاوف بسبب التحديات المتعلقة بالتنافسية والتكاليف المالية الباهظة، ولكن على الرغم من ذلك فإن بعض الشركات الأخرى ترى أن الذكاء الاصطناعي يمكن أن يقدم فرصا لتحسين الكفاءة وخفض التكاليف.

حسنا، إذا استطعنا التعامل مع تحديات التنافسية والتكاليف الباهظة، فيما وراء الذكاء الاصطناعي، فماذا عن الخصوصية؟

الأمر ببساطة أن التطبيقات والخدمات التي تعتمد على الذكاء الاصطناعي تجمع كمية هائلة من البيانات الشخصية، لتقديم تجربة مخصصة للمستخدمين، ولكنْ هل هناك ضامن لحماية هذه البيانات والمعلومات الحساسة من الاختراق، أو الاستغلال غير القانوني لها؟ الإجابة غالبا: «لا».

جمْع هذه البيانات الهائلة له دور في تعزيز التمييز والتحيز، أو قد يكون السبب في سرقة هويتك واستخدامها في عمليات النصب والاحتيال. وقد تصل خطورة هذه البيانات الهائلة إلى حد الاغتيالات، واستهداف المطلوبين من خلال تحليل عدد هائل من البيانات، مهما حاولوا التخفي أو التمويه!. حتى إن هناك انتقادات واسعة لاستخدام الذكاء الاصطناعي في العدوان على غزة، واستهداف المدنيين.

ومع إدراك تلك المخاطر سمعنا مؤخرا عن قانون الذكاء الاصطناعي الذي أقرّته أوروبا، وهو القانون الأول من نوعه في تنظيم استخدامات هذا الذكاء.. يحظر القانون أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة، ويحظر أيضا استخدام تقنيات التعرف على البيانات البيومترية في الأماكن العامة، مثل بصمات الأصابع والصوت، وكذلك التعرف على الوجه، وحتى أنماط المشي!

وبشكل عام، يجب على كل من يعيش على هذه «البسيطة» أن يدرك أن بياناته ليست مجرد معلومات، بل هي سلعة ثمينة يجب تأمينها والحفاظ عليها؛ لأنها قد تتعرض للسرقة أو التلاعب.

وكل مستخدم للإنترنت الآن لديه «بصمة رقمية»، وهي تشير إلى مجموعة البيانات التي يتم جمعها عنك أثناء استخدامك للإنترنت. هذه البيانات يمكن أن تشمل معلومات مثل المواقع التي تزورها، والرسائل التي ترسلها، والتطبيقات التي تستخدمها؛ فالبصمة الرقمية هي «الأثر» الذي تتركه خلفك عند استخدامك الأجهزةَ المتصلة بالإنترنت، وهذا الأثر- لو تعلمون- عظيم!

وبين تلك الإيجابيات والتحسينات التي أدخلها الذكاء الاصطناعي، وبين المخاطر والتحديات باحتمالية خروج الأمور عن السيطرة، نقف بين طريقين: أنلحق بقطار الإبداع والتطور السريع، أم نقف مُكتفين بالرغبة في الحفاظ على ذات البشرية من أخطار لم تأتِ في الحسبان؟

من جانب آخر، أعلنت شركة مايكروسوفت عن أدوات جديدة في مجال البيانات الصحية والذكاء الاصطناعي، بما في ذلك مجموعة من نماذج التصوير الطبي وخدمة الرعاية الصحية وأدوات للتوثيق التلقائي تخص الممرضات. وفقا لموقع «سي إن بي سي».

وتهدف هذه الأدوات إلى مساعدة منظمات الرعاية الصحية على بناء تطبيقات الذكاء الاصطناعي بشكل أسرع وتوفير وقت الأطباء في المهام الإدارية والتي هي سبب رئيسي للإرهاق. حيث تقضي الممرضات ما يصل إلى 41 % من وقتهن في التوثيق، وفقا لتقرير من مكتب جراح عام.

وتعد الأدوات الجديدة أحدث مثال على جهود مايكروسوفت لتعزيز نفسها كشركة رائدة في مجال الذكاء الاصطناعي مع مجال الرعاية الصحية.

وكانت الشركة كشفت عن سلسلة من ميزات الصحة عبر منصة الحوسبة السحابية «أزور» (Azure) ومنصة «فابريك» (Fabric) للتحليلات.

واستحوذت مايكروسوفت على شركة «نوانس كوميونكيشنز» (Nuance Communications) التي تقدم حلولا بالذكاء الاصطناعي لتحويل الكلام إلى نص لقطاعات الرعاية الصحية وغيرها من القطاعات، في صفقة بقيمة 16 مليار دولار عام 2021.إذا كنت تستخدم أدوات الذكاء الاصطناعي حتى تلك الموثوقة مثل «شات جي بي تي» فيتعين عليك توخي الحذر الشديد. صحيح أن هذه الروبوتات توفر محادثة شبيهة بالإنسان لكن المشكلة هي أنك لا تعرف أين ستنتهي المعلومات التي تشاركها. حيث حذّر خبراء أمنيون بارزون من مخاطر مشاركة المعلومات المفرطة مع هذه الروبوتات وفقا لموقع «ذا صن».

وقال جيمس مكويغن خبير الأمن في شركة «نو بي 4» (Know Be4) «عندما يتعلق الأمر باستخدام نماذج اللغة الكبيرة وروبوتات الدردشة، من المهم أن تدرك أن معلوماتك ستُعالج بواسطة الشركة وستُستخدم لتدريب النماذج لاحقا».

copy short url   نسخ
18/10/2024
5