چگونه در مورد هوش مصنوعی مانند یک خودی صحبت کنیم

همچنین ببینید: طوطی‌ها، گیره‌ها و ایمنی در مقابل اخلاق: چرا بحث هوش مصنوعی مانند یک زبان خارجی به نظر می‌رسد

در اینجا لیستی از برخی اصطلاحات استفاده شده توسط خودی های هوش مصنوعی آورده شده است:

AGI – AGI مخفف “هوش عمومی مصنوعی” است. به عنوان یک مفهوم، به معنای هوش مصنوعی بسیار پیشرفته تر از آنچه در حال حاضر ممکن است استفاده می شود، که می تواند بیشتر کارها را به خوبی یا بهتر از بسیاری از انسان ها انجام دهد، از جمله بهبود خود.

به عنوان مثال: سم آلتمن در یک VC اخیر Greylock گفت: “برای من، AGI معادل یک انسان متوسط ​​است که شما می توانید آن را به عنوان همکار استخدام کنید، و آنها می توانند بگویند هر کاری را انجام دهید که با یک همکار از راه دور که پشت کامپیوتر انجام می دهد خوشحال می شوید.” رویداد.

اخلاق هوش مصنوعی تمایل به جلوگیری از ایجاد آسیب فوری هوش مصنوعی را توصیف می کند و اغلب بر سوالاتی مانند نحوه جمع آوری و پردازش داده ها توسط سیستم های هوش مصنوعی و احتمال سوگیری در زمینه هایی مانند مسکن یا اشتغال تمرکز می کند.

ایمنی هوش مصنوعی ترس درازمدت از پیشرفت ناگهانی هوش مصنوعی که یک هوش مصنوعی فوق‌هوشمند ممکن است به بشریت آسیب برساند یا حتی نابود کند را توصیف می‌کند.

هم ترازی عمل بهینه سازی یک مدل هوش مصنوعی به گونه ای است که خروجی های مورد نظر سازندگان را تولید کند. در کوتاه مدت، همسویی به تمرین ساختن نرم افزار و تعدیل محتوا اشاره دارد. اما می تواند به وظیفه بسیار بزرگتر و همچنان نظری اطمینان از اینکه هر AGI دوستانه با بشریت خواهد بود اشاره کند.

مثال: “این سیستم‌ها با چه چیزی همسو می‌شوند – ارزش‌ها، چه مرزهایی هستند – که به نوعی توسط جامعه به‌عنوان یک کل، توسط دولت‌ها تعیین می‌شود. و بنابراین ایجاد آن مجموعه داده، مجموعه داده‌های همسویی ما، می‌تواند یک قانون اساسی هوش مصنوعی باشد، هر چه باشد. سام آلتمن هفته گذشته در جریان جلسه استماع سنا گفت، این باید به طور گسترده از جامعه ناشی شود.

رفتار اضطراری – رفتار اضطراری روشی فنی است که می گوید برخی از مدل های هوش مصنوعی توانایی هایی را نشان می دهند که در ابتدا در نظر گرفته نشده بودند. همچنین می‌تواند نتایج شگفت‌آوری را از ابزارهای هوش مصنوعی که به طور گسترده برای عموم استفاده می‌شوند، توصیف کند.

به عنوان مثال: “با این حال، حتی به عنوان اولین گام، GPT-4 تعداد قابل توجهی از مفروضات گسترده در مورد هوش ماشینی را به چالش می کشد، و رفتارها و قابلیت های نوظهوری را نشان می دهد که منابع و مکانیسم های آنها در حال حاضر به سختی قابل تشخیص است.” در Sparks of Artificial Intelligence نوشته است.

برخاستن سریع یا برخاستن سخت – عبارتی که نشان می دهد اگر کسی موفق به ساخت AGI شود، برای نجات بشریت خیلی دیر شده است.

سام آلتمن، مدیر عامل OpenAI در یک پست وبلاگی گفت: “AGI ممکن است به زودی یا دور در آینده اتفاق بیفتد؛ سرعت برخاستن از AGI اولیه به سیستم های جانشین قدرتمندتر می تواند آهسته یا سریع باشد.”

فوم – راه دیگری برای گفتن “برخاست سخت”. این یک onomatopeia است، و همچنین در چندین پست وبلاگ و مقاله به عنوان مخفف “Fast Starset of Overwhelming Mastery” توصیف شده است.

مثال: “مثل اینکه به سناریوی مضحک “فوم” برخاستن سخت اعتقاد دارید، که باعث می شود به نظر برسد که درک کاملی از نحوه کار همه چیز ندارید.” توییت کرد یان لیکان، رئیس هوش مصنوعی متا.

پردازنده گرافیکی – تراشه‌هایی که برای آموزش مدل‌ها و اجرای استنتاج استفاده می‌شوند، که از نسل تراشه‌هایی هستند که برای انجام بازی‌های رایانه‌ای پیشرفته استفاده می‌شوند. رایج ترین مدلی که در حال حاضر استفاده می شود A100 انویدیا است.

مثال: از عماد مستق، بنیانگذار هوش مصنوعی پایداری:

نرده های محافظ نرم‌افزارها و سیاست‌هایی هستند که شرکت‌های بزرگ فناوری در حال حاضر روی مدل‌های هوش مصنوعی ایجاد می‌کنند تا اطمینان حاصل کنند که داده‌ها درز نمی‌کنند یا محتوای مزاحم تولید نمی‌کنند، که اغلب به آن «خروج از ریل» می‌گویند. همچنین می تواند به برنامه های خاصی اشاره کند که از هوش مصنوعی در برابر خارج شدن از موضوع محافظت می کنند، مانند محصول “NeMo Guardrails” انویدیا.

کریستینا مونتگومری، رئیس IBM، مثال: «لحظه ایفای نقش دولت از این دوره از توجه عمومی متمرکز بر هوش مصنوعی سپری نشده است، دقیقاً زمان تعریف و ساختن نرده های محافظ مناسب برای محافظت از مردم و منافع آنها است. هیئت مدیره اخلاق هوش مصنوعی و معاون این شرکت در کنگره این هفته گفت.

استنباط – عمل استفاده از یک مدل هوش مصنوعی برای پیش‌بینی یا تولید متن، تصاویر یا محتوای دیگر. استنتاج می تواند به قدرت محاسباتی زیادی نیاز داشته باشد.

مثال: “مشکل استنتاج این است که حجم کار خیلی سریع افزایش می یابد، این همان اتفاقی است که برای ChatGPT رخ داد. در عرض پنج روز به یک میلیون کاربر رسید. هیچ راهی وجود ندارد که ظرفیت GPU شما بتواند با آن مطابقت داشته باشد.” Sid Sheth. بنیانگذار D-Matrix، قبلاً به CNBC گفته بود.

مدل زبان بزرگ – نوعی مدل هوش مصنوعی که زیربنای ChatGPT و ویژگی های جدید هوش مصنوعی مولد گوگل است. ویژگی تعیین کننده آن این است که از ترابایت داده برای یافتن روابط آماری بین کلمات استفاده می کند، به این ترتیب متنی تولید می کند که به نظر می رسد یک انسان آن را نوشته است.

به عنوان مثال: CNBC در اوایل این هفته گزارش داد: «مدل جدید زبان بزرگ گوگل که این شرکت هفته گذشته اعلام کرد، تقریباً پنج برابر بیشتر از داده‌های آموزشی قبلی خود از سال 2022 استفاده می‌کند و به آن اجازه می‌دهد تا کارهای کدنویسی، ریاضی و نوشتن خلاقانه‌تری را انجام دهد. .

گیره کاغذ نماد مهمی برای طرفداران ایمنی هوش مصنوعی هستند زیرا نمادی از شانس یک AGI برای نابودی بشریت هستند. این به یک آزمایش فکری اشاره دارد که توسط فیلسوف نیک بوستروم در مورد یک “ابر هوش” با مأموریت ساخت هرچه بیشتر گیره کاغذ منتشر شده است. تصمیم می گیرد همه انسان ها، زمین و بخش های فزاینده کیهان را به گیره کاغذ تبدیل کند. لوگوی OpenAI اشاره ای به این داستان است.

بوستروم در مقاله خود نوشت: «همچنین به نظر می رسد که داشتن یک ابرهوش کاملاً ممکن است که تنها هدفش چیزی کاملاً خودسرانه باشد، مثلاً ساخت هر چه بیشتر گیره کاغذ، و با تمام قدرت در برابر هر تلاشی برای تغییر این هدف مقاومت کند». آزمایش فکری.

تکینگی اصطلاح قدیمی‌تری است که دیگر اغلب استفاده نمی‌شود، اما به لحظه‌ای اشاره می‌کند که تغییرات تکنولوژیکی به خودی خود تقویت می‌شوند، یا لحظه ایجاد یک AGI. این یک استعاره است – به معنای واقعی کلمه، تکینگی به نقطه سیاهچاله ای با چگالی بی نهایت اشاره دارد.

به عنوان مثال، ایلان ماسک، مدیرعامل تسلا در مصاحبه ای با CNBC این هفته گفت: ظهور هوش مصنوعی عمومی یک تکینگی نامیده می شود زیرا پیش بینی اینکه بعد از آن چه اتفاقی خواهد افتاد بسیار سخت است.