«مردم تعصب دارند»: هوش مصنوعی شکار اطلاعاتی توسط شرکت نزدیک به پنتاگون بخشی از «روند بسیار بد»

نظر

URL کوتاه دریافت کنید

توسعه دهنده وب و تکنسین وب کریس گارافا به اسپوتنیک گفت که اگرچه شرکت اطلاعاتی ماشین Primer کارکنان باتجربه ای با روابط نزدیک دولت را تجربه کرده است ، اما قرارداد نظامی اخیر ایالات متحده با هدف مبارزه با اطلاعات نادرست س questionsالاتی را در مورد محدودیت های هوش مصنوعی و سو possible استفاده احتمالی مقامات دولت آمریکا از هوش مصنوعی ایجاد می کند.

در مقاله جدید Defence One آمده است: “علی رغم همه مزایای فنی ارتش ایالات متحده نسبت به دشمنان ، این کشور همچنان برای مقابله با اطلاعات غیرقانونی تلاش می کند. یک ابزار نرم افزاری جدید که برای نیروی هوایی و فرماندهی عملیات ویژه ایالات متحده یا SOCOM تولید می شود ، ممکن است به تغییر آن کمک کند” در تاریخ 2 اکتبر ، درست یک روز پس از اعلام قرارداد چند میلیون دلاری Primer منتشر شد.

گارافا روز پنجشنبه به رادیو اسپوتنیک اظهار داشت که این معامله در تلاش برای مبارزه با اخبار جعلی انجام شده است بخشی از “روند بسیار بد ساخت AI [determine] چه درست است و چه نیست. “

بخش در حدود زمان 13:42 شروع می شود

در واقع ، طراحی هوش مصنوعی برای انجام “هر کاری [other] گارافا به میزبانان باب شلهوبر و میشل ویته گفت: “از اینکه خلاصه اطلاعاتی که باید توسط یک انسان بررسی شود” مشکل ساز است.

Garaffa تأكید كرد كه Primer شركت اطلاعاتی ماشینی نسبتاً كوچكی است ، با این وجود با شركت خرده فروشی Walmart ، نیروی هوایی آمریكا و In-Q-Tel ، بازوی سرمایه گذاری آژانس اطلاعات مركزی ایالات متحده (CIA) ، قراردادهای عمده ای بسته است.

امی هاینهیك و شان گورلی ، كارمندان سابق شركت خصوصی نرم افزار و خدمات Quid ، و همچنین برایان ریموند ، افسر سابق CIA و مدیر سابق عراق برای شورای امنیت ملی (NSC) در Primer نقش دارند.

صحبت از ریموند ، گارافا اظهار داشت که “این کسی است که روابط بسیار نزدیک با دولت و جامعه اطلاعاتی دارد ، زیرا در شورای امنیت ملی بوده است.”

آنها گفتند: “من به هوش مصنوعی اعتماد ندارم كه این نوع تجزیه و تحلیل دنیای واقعی را در زمان واقعی و در این وضعیت كه انجام می دهد ، انجام دهم.”

Garaffa اظهار داشت که آنها در مورد توانایی Primer AI برای تعیین اینکه آیا اطلاعات موجود در یک پست خاص در شبکه های اجتماعی “واقعاً حقیقت را می گویند” تردید دارند.

“این همان چیزی است که نیروی هوایی آن را می خواهد. [The service] آنها می خواهند آن را برای آگاهی از موقعیت در زمین “، آنها اشاره كردند و خاطرنشان كردند كه این فن آوری بعداً می تواند توسط مجموعه ای از آژانسهای دولتی فدرال مانند وزارت امنیت داخلی ایالات متحده و زیرمجموعه آن اداره مهاجرت و اجرای گمرك ایالات متحده به كار گرفته شود.

گارافا تأکید کرد: “آنها می توانند از آن برای نظارت بر اعتراضات استفاده کنند ، همان کاری که می دانید انجام می دهند.”

همچنین یک مسئله کلی اعتماد وجود دارد و اینکه چگونه چیزی به عنوان واقعیت در مقابل داستان قلمداد می شود.

گارافا خاطرنشان کرد: “پس از هر نوع وضعیت ، اطلاعات غلط زیادی وجود دارد ، زیرا مردم در تلاشند بفهمند چه اتفاقی افتاده است.” “بعضی از آنها به طور قانونی افراد را به اشتباه هدایت می کند ، اما برخی از آنها” افرادی که آنچه را دیده اند گزارش می دهند … و معلوم است که اشتباه است. “

آنها تأكید كردند: “هیچ اطلاعاتی در مورد چگونگی آدرس Primer به هر یك از این س questionsالات یا تعصبی كه در توسعه AI است ، وجود ندارد.”

“به یاد داشته باشید ، این الگوریتم ها توسط افراد ساخته شده است. مردم تعصب دارند. مردم نقاط کور دارند. “

نظرات و نظرات بیان شده در مقاله لزوماً نظرات اسپوتنیک را منعکس نمی کند.