هوش مصنوعی ماهیت استراتژی و جنگ را تغییر می دهد
به گزارش وبلاگ پتول به نقل از گیزمودو، وی گفت: متقاعد شده که هوش مصنوعی از پتانسیل لازم برای تغییر اساسی آگاهی انسان برخوردار است و درک انسان از خود و نحوه تصمیم گیری های استراتژیک اشخاص را متحول می نماید. وی توسعه دهندگان هوش مصنوعی را سرزنش کرد و گفت که آنها به اندازه کافی در خصوص پیامدهای تولیداتشان فکر نمی نمایند.
کیسینجر 96 ساله در کنفرانس قدرت به وسیله نوآوری در واشنگتن سخن می گفت که توسط کمیته هوش مصنوعی کنگره با هدف ارزیابی آینده هوش مصنوعی در امریکا و صندلی آن به منظور تامین امنیت ملی ایالات متحده برگزار شده بود.
کیسینجر در این مورد گفت: من به مقوله هوش مصنوعی به عنوان یک فرد فنی نمی نگرم و دغدغه من مربوط به جنبه های تاریخی، فلسفی و استراتژیک آن است.
وی تاثیرگذاری هوش مصنوعی را مشابه تاثیر ناشی از شروع عصر روشنگری و رنسانس در غرب دانست و اضافه نمود: هوش مصنوعی به شکلی تغییر ناپذیر شیوه تعامل انسانها و ماشین ها را تغییر می دهد و این تغییر لزوما به معنای بهتر شدن این تعامل نخواهد بود. البته من ضد هوش مصنوعی نیستم و این ابزار ممکن است بتواند ما را نجات دهد.
مشاور اسبق امنیت ملی آمریکا توضیح داد: هوش مصنوعی ماهیت استراتژی و جنگ را تغییر می دهد ولی هنوز بسیاری از تصمیم گیران و فعالان این عرصه به هوش مصنوعی تنها به مثابه یک نقطه عزیمت فنی جدید می نگرند. آنها هنوز نفهمیده اند که هوش مصنوعی برداشت فلسفی ما را از دنیا متحول می نماید و به طور اساسی بر درک انسان تاثیر می گذارد.
کیسینجر با اظهار نگرانی در خصوص پیامدهای کاربرد هوش مصنوعی در عرصه نظامی گفت: ممکن است دیپلماسی در آینده دیگر نتواند برای متوقف کردن نظامی گری مبتنی بر هوش مصنوعی کارآیی داشته باشد. ماهیت مخفی و به سرعت متحول شونده هوش مصنوعی بدان معناست که بازیگران دولتی نمی توانند آن را به عنوان یک تهدید قطعی مانند تسلیحات هسته ای بر روی میز گذاشته و در خصوصش مذاکره نمایند.
وی اضافه نمود: در حال حرکت به حوزه ای هستیم که با توانایی های خارق العاده ای روبرو خواهیم شد و دشمن نمی تواند به سرعت دریابد که تهدید از کجا فرا می رسد. همین سردرگمی می تواند به هرج و مرج در میدان نبرد یا اشتباه یک کشور در شناسایی منبع حمله منجر گردد و لذا هوش مصنوعی خطر جنگ هسته ای را افزایش می دهد. لذا ما باید در خصوص ماهیت پدیده کنترل تسلیحاتی و کاربرد آن در آینده از نو فکر کنیم.
کیسینجر با اشاره به سیستم های هوش مصنوعی گوگل که به عنوان مثال می توانند هر انسانی را در بازی شطرنج شکست دهند، گفت: ما باید درک کنیم که چنین تحولاتی در مقیاس بزرگتر چه معانی دارد و باید در زمینه فراوری مخلوقاتی که توان درک ندارند، مطالعه کنیم. ما در جامعه خود هنوز در این زمینه آگاهی نداریم.
او پیش بینی کرد که الگوریتم های هوش مصنوعی روزی به عنوان بخشی از فرایند تصمیم گیری نظامی به کار گرفته می شوند. اما برنامه ریزان استراتژیک باید این موضوع را در بازی های جنگی و حتی در موقعیت های واقعی از قبل آزمایش نمایند تا میزان کارآیی آن معین گردد و ما دریابیم که آیا ما از پس استفاده از چنین الگوریتم هایی برمی آییم و پیامدهای آن چیست.
وی شرایط فعلی دنیا را به شرایط قبل از شروع جنگ اول دنیای تشبیه کرد که در نهایت مجموعه ای از رویدادهای به نظر منطقی پیامدهایی پیش بینی نشده و ناخواسته را به وجود آورد و جنگ شروع شد. وی گفت: اگر پیامدهای فناوری ها و از جمله ظرفیتهای عاطفی و احساسی انسان ها را برای مدیریت پیامدهای غیرقابل پیش بینی فناوری ها، مورد توجه قرار ندهید، در حوزه استراتژیک هم شکست می خورید. هنوز معین نیست بازیگران دولتی چگونه قادر به اعمال دیپلماسی در شرایطی خواهند بود که از طرز فکر طرف مقابل مطمئن نیستند یا حتی قادر به ارائه تضمین به آن طرف نمی باشند. زمانی که با استفاده از هوش مصنوعی سلاح های پرقدرت می سازیم باید به طور جدی به این موضوع فکر کنیم که چگونه می خواهیم در خصوص آنها مصاحبه کنیم و چگونه می خواهیم برای استفاده از آنها خویشتن داری پیشه کنیم؟
کیسینجر تاکید نمود: در این شرایط سلاح شما به شریک شما مبدل می گردد و اگر این سلاح برای انجام وظیفه ای خاص طراحی گردد، شما چگونه می توانید آن را تحت شرایطی خاص متحول و دستکاری کنید. باید به این سوالات پاسخداد. هوش مصنوعی چالش فلسفی آینده ماست، زیرا ما با اشیای هوشمندی تعامل خواهیم کرد که قبلا هرگز تصورش را هم نداشتیم و محدودیت های ما نیز بسیار وسیع است.
منبع: خبرگزاری مهر