https://sputnikarabic.ae/20220615/مهندس-في-غوغل-يدعي-أن-الذكاء-الاصطناعي-للشركة-خلق-وعيا-خاصا-به-1063633833.html
مهندس في "غوغل" يدعي أن الذكاء الاصطناعي للشركة خلق وعيا خاصا به
مهندس في "غوغل" يدعي أن الذكاء الاصطناعي للشركة خلق وعيا خاصا به
سبوتنيك عربي
أوقفت شركة "غوغل" أحد مهندسيها ووضعته في إجازة إدارية مدفوعة الأجر بزعم انتهاكه لسياسات السرية الخاصة بها، بعدما أبدى قلقه من نظام الدردشة الآلي للذكاء... 15.06.2022, سبوتنيك عربي
2022-06-15T10:31+0000
2022-06-15T10:31+0000
2022-06-15T10:31+0000
اقتصاد
منوعات
العالم
https://cdn1.img.sputnikarabic.ae/img/103141/38/1031413854_0:63:1201:738_1920x0_80_0_0_c2cd67818cfe097dc6da3bc3e795c585.jpg
وبحسب ما ذكرته صحيفة "واشنطن بوست"، فإن المهندس بليك ليموين يعمل في منظمة الذكاء الاصطناعي المسؤول التابعة لـ"غوغل"، وكان يختبر ما إذا كان النموذج الذي يدعى "لامدا" يولد لغة تمييزية أو خطاب كراهية.ونشأت مخاوف المهندس من الردود المقنعة التي رأى أن نظام الذكاء الاصطناعي يولدها حول حقوقه وأخلاقيات الروبوتات. في أبريل/ نيسان، شارك وثيقة مع المديرين التنفيذيين بعنوان "هل لامدا واع".واحتوت الوثيقة على نسخة من محادثاته مع نظام الذكاء الاصطناعي، والتي يقول فيها إن النظام يدعي بأنه "حساس لأنه يحتوي على مشاعر وعواطف وتجربة ذاتية". نشر المهندس المحادثة بعد وقفه عن العمل على حسابه بموقع "ميديم".تعتقد "غوغل" أن إجراءات ليموين المتعلقة بعمله على "لامدا" قد انتهكت سياسات السرية الخاصة بها. وتحدث المهندس إلى ممثل من اللجنة القضائية في مجلس النواب بشأن الأنشطة غير الأخلاقية المزعومة في "غوغل".في 6 يونيو/ حزيران، وهو اليوم الذي منح فيه إجازة إدارية، قال المهندس على موقع "ميديم" إنه طلب "قدرا ضئيلا من الاستشارات الخارجية للمساعدة في إرشاده"، وإن قائمة الأشخاص الذين أجرى مناقشات معهم تضمنت الحكومة الأمريكية.أعلنت "غوغل" عن "لامدا" العام الماضي، والتي تأمل في تحسين مساعدي الذكاء الاصطناعي للمحادثة وإجراء محادثات أكثر طبيعية. تستخدم الشركة بالفعل تقنية نموذج لغة مماثلة لميزة الكتابة الذكية في "جيميل"، أو لاستعلامات محرك البحث.في بيان، قال متحدث باسم الشركة إنه لا يوجد دليل على أن "لامدا" لديه وعي، مضيفا: "قام فريقنا - بما في ذلك علماء الأخلاق والتقنيين - بمراجعة مخاوف بليك وفقا لمبادئ الذكاء الاصطناعي الخاصة بنا وأبلغه أن الأدلة لا تدعم مزاعمه".
https://sputnikarabic.ae/20220527/البنتاغون-وقعنا-مع-بريطانيا-اتفاقية-لاستخدام-الذكاء-الاصطناعي-في-الدفاع-1062758073.html
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rosiya Segodnya“
2022
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rosiya Segodnya“
الأخبار
ar_EG
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rosiya Segodnya“
https://cdn1.img.sputnikarabic.ae/img/103141/38/1031413854_66:0:1133:800_1920x0_80_0_0_03097d9e37b432b5bf1d1c73debddca4.jpgسبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rosiya Segodnya“
اقتصاد, منوعات, العالم
مهندس في "غوغل" يدعي أن الذكاء الاصطناعي للشركة خلق وعيا خاصا به
أوقفت شركة "غوغل" أحد مهندسيها ووضعته في إجازة إدارية مدفوعة الأجر بزعم انتهاكه لسياسات السرية الخاصة بها، بعدما أبدى قلقه من نظام الدردشة الآلي للذكاء الاصطناعي، والذي يعتقد أنه خلق وعيا خاصا به.
وبحسب ما ذكرته صحيفة "واشنطن بوست"، فإن المهندس بليك ليموين يعمل في منظمة الذكاء الاصطناعي المسؤول التابعة لـ"
غوغل"، وكان يختبر ما إذا كان النموذج الذي يدعى "لامدا" يولد لغة تمييزية أو خطاب كراهية.
ونشأت مخاوف المهندس من الردود المقنعة التي رأى أن
نظام الذكاء الاصطناعي يولدها حول حقوقه وأخلاقيات الروبوتات. في أبريل/ نيسان، شارك وثيقة مع المديرين التنفيذيين بعنوان "هل لامدا واع".
واحتوت الوثيقة على نسخة من محادثاته مع نظام الذكاء الاصطناعي، والتي يقول فيها إن النظام يدعي بأنه "حساس لأنه يحتوي على مشاعر وعواطف وتجربة ذاتية". نشر المهندس المحادثة بعد وقفه عن العمل على حسابه بموقع "ميديم".
تعتقد "غوغل" أن إجراءات ليموين المتعلقة بعمله على "لامدا" قد انتهكت سياسات السرية الخاصة بها. وتحدث المهندس إلى ممثل من اللجنة القضائية في مجلس النواب بشأن الأنشطة غير الأخلاقية المزعومة في "غوغل".
في 6 يونيو/ حزيران، وهو اليوم الذي منح فيه إجازة إدارية، قال المهندس على موقع "ميديم" إنه طلب "قدرا ضئيلا من الاستشارات الخارجية للمساعدة في إرشاده"، وإن قائمة الأشخاص الذين أجرى مناقشات معهم تضمنت الحكومة الأمريكية.
أعلنت "غوغل" عن "لامدا" العام الماضي، والتي تأمل في تحسين مساعدي الذكاء الاصطناعي للمحادثة وإجراء محادثات أكثر طبيعية. تستخدم الشركة بالفعل
تقنية نموذج لغة مماثلة لميزة الكتابة الذكية في "جيميل"، أو لاستعلامات محرك البحث.
في بيان، قال متحدث باسم الشركة إنه لا يوجد دليل على أن "لامدا" لديه وعي، مضيفا: "قام فريقنا - بما في ذلك علماء الأخلاق والتقنيين - بمراجعة مخاوف بليك وفقا لمبادئ الذكاء الاصطناعي الخاصة بنا وأبلغه أن الأدلة لا تدعم مزاعمه".