به گزارش بخش اخبار فناوری زوم تک,کارکنان گوگل، یکی از پیشروترین شرکتها در حوزه هوش مصنوعی، در اقدامی کمسابقه خواستار توقف قراردادهای نظامی این شرکت شدند. آنها معتقدند استفاده از فناوری پیشرفتهای مانند هوش مصنوعی در امور نظامی، تهدیدی جدی برای بشریت است و میتواند عواقب جبرانناپذیری به همراه داشته باشد. این اعتراض، نشاندهندهی یک بحران اخلاقی در صنعت فناوری است و پرسشهای مهمی را در مورد مسئولیت اجتماعی شرکتهای بزرگ مطرح میکند.
کارکنان گوگل دیپمایند: هوش مصنوعی نباید برای کشتن استفاده شود
در اقدامی کمسابقه، حدود ۲۰۰ نفر از کارمندان گوگل دیپمایند، یکی از پیشروترین بخشهای هوش مصنوعی گوگل، خواستار توقف قراردادهای نظامی این شرکت شدند. این کارمندان نگرانند که فناوری پیشرفتهای که آنها روی آن کار میکنند، در ساخت سلاحهای مرگبار استفاده شود.
چرا کارمندان گوگل اعتراض میکنند؟
کارمندان دیپمایند معتقدند که استفاده از هوش مصنوعی برای اهداف نظامی با اصول اخلاقی و تعهدات گوگل در زمینه هوش مصنوعی مغایرت دارد. آنها به وعدههای اولیهی مدیران دیپمایند مبنی بر عدم استفاده از این فناوری برای اهداف نظامی اشاره میکنند.
نگرانیهای کارمندان دیپمایند چیست؟
سلاحهای خودکار: کارمندان نگرانند که فناوری آنها در ساخت سلاحهای خودکاری استفاده شود که بتوانند بدون دخالت انسان تصمیم به کشتن بگیرند.
نظارت و کنترل: آنها همچنین نگرانند که فناوری آنها برای نظارت بر مردم و سرکوب مخالفان استفاده شود.
تخریب وجهه گوگل: این کارمندان معتقدند که استفاده از فناوری آنها برای اهداف نظامی، به وجهه گوگل بهعنوان یک شرکت پیشرو در حوزه فناوریهای اخلاقی آسیب میرساند.
واکنش گوگل به این اعتراض چیست؟
تاکنون گوگل به این اعتراض واکنش رسمی نشان نداده است. اما این موضوع نشان میدهد که شرکتهای بزرگ فناوری با چالشهای اخلاقی پیچیدهای در ارتباط با استفاده از فناوریهای پیشرفته مواجه هستند.
این اعتراض چه پیامدهایی میتواند داشته باشد؟
این اعتراض میتواند به آغاز یک بحث گستردهتر در مورد مسئولیت اجتماعی شرکتهای فناوری و استفاده اخلاقی از هوش مصنوعی منجر شود. همچنین، این اعتراض میتواند بر تصمیمگیریهای گوگل در مورد قراردادهای آیندهی خود تأثیر بگذارد.
نظرات در مورد : کارکنان گوگل: هوش مصنوعی نباید برای جنگ استفاده شود