محقق سابق شرکت آمریکایی اوپن اِیآی OpenAI در مصاحبهای با نیویورک تایمز هشدار داد که این شرکت از تهدیدات بالقوه هوش عمومی مصنوعی (AGI) برای بشریت آگاه است اما آنها را نادیده می گیرد.
به گزارش خبرگزاری تسنیم به نقل از راشاتودی، دانیل کوکوتاجلو، محقق سابق شرکت آمریکایی اوپن اِیآی OpenAI در مصاحبهای با نیویورک تایمز هشدار داد که این شرکت از تهدیدات بالقوه هوش عمومی مصنوعی (AGI) برای بشریت آگاه است اما آنها را نادیده می گیرد.
اِیجیآیAGI نوعی فناوری فرضی هوش مصنوعی است که قادر به درک و استدلال و انجام طیف وسیعی از وظایف است. اگر این فناوری با موفقیت ایجاد شود، رفتار انسان را تکرار یا پیشبینی میکند و در عین حال توانایی یادگیری و استدلال را خواهد داشت.
کوکوتاجلو که تیم مدیریتی اوپن اِیآی را در ماه آوریل ترک کرد، تأکید کرد احتمال اینکه این "هوش مصنوعی پیشرفته" بشریت را نابود کند، حدود 70 درصد است، اما این شرکت مستقر در سانفرانسیسکو بدون توجه به آن به پیش میبرد.
محقق سابق اوپن ایآی به نیویورک تایمز گفت مقامات این شرکت "واقعاً از ساخت اِیجیآی AGI هیجان زده هستند و بی پروا برای اولین بودن در این (زمینه) مسابقه می دهند."
این محقق 31 ساله همچنین گفت که پس از اینکه دو سال پیش به اوپن ایآی پیوست و وظیفه پیشبینی پیشرفت فناوری را بر عهده گرفت، به این نتیجه رسید که این صنعت نه تنها تا سال 2027 اِیجیآی AGI را ایجاد خواهد کرد، بلکه احتمال زیادی وجود دارد که این فناوری به طور فاجعهباری به بشریت آسیب برساند یا حتی آن را نابود میکند.
کارمند سابق این شرکت گفت که به سام آلتمن، مدیر عامل اوپن اِیآی OpenAI گفته است که این شرکت باید "به سمت ایمنی (این فناوری) حرکت کند" و زمان و منابع بیشتری را برای مقابله با خطرات ناشی از هوش مصنوعی صرف کند تا اینکه به هوشمندتر کردن آن ادامه دهد.
کوکوتاجلو در ادامه مدعی شد که آلتمن با وی موافق است اما از آن زمان تاکنون چیزی تغییر نکرده است.
انتهای پیام/