همچنین ببینید: طوطیها، گیرهها و ایمنی در مقابل اخلاق: چرا بحث هوش مصنوعی مانند یک زبان خارجی به نظر میرسد
در اینجا لیستی از برخی اصطلاحات استفاده شده توسط خودی های هوش مصنوعی آورده شده است:
AGI – AGI مخفف “هوش عمومی مصنوعی” است. به عنوان یک مفهوم، به معنای هوش مصنوعی بسیار پیشرفته تر از آنچه در حال حاضر ممکن است استفاده می شود، که می تواند بیشتر کارها را به خوبی یا بهتر از بسیاری از انسان ها انجام دهد، از جمله بهبود خود.
به عنوان مثال: سم آلتمن در یک VC اخیر Greylock گفت: “برای من، AGI معادل یک انسان متوسط است که شما می توانید آن را به عنوان همکار استخدام کنید، و آنها می توانند بگویند هر کاری را انجام دهید که با یک همکار از راه دور که پشت کامپیوتر انجام می دهد خوشحال می شوید.” رویداد.
اخلاق هوش مصنوعی تمایل به جلوگیری از ایجاد آسیب فوری هوش مصنوعی را توصیف می کند و اغلب بر سوالاتی مانند نحوه جمع آوری و پردازش داده ها توسط سیستم های هوش مصنوعی و احتمال سوگیری در زمینه هایی مانند مسکن یا اشتغال تمرکز می کند.
ایمنی هوش مصنوعی ترس درازمدت از پیشرفت ناگهانی هوش مصنوعی که یک هوش مصنوعی فوقهوشمند ممکن است به بشریت آسیب برساند یا حتی نابود کند را توصیف میکند.
هم ترازی عمل بهینه سازی یک مدل هوش مصنوعی به گونه ای است که خروجی های مورد نظر سازندگان را تولید کند. در کوتاه مدت، همسویی به تمرین ساختن نرم افزار و تعدیل محتوا اشاره دارد. اما می تواند به وظیفه بسیار بزرگتر و همچنان نظری اطمینان از اینکه هر AGI دوستانه با بشریت خواهد بود اشاره کند.
مثال: “این سیستمها با چه چیزی همسو میشوند – ارزشها، چه مرزهایی هستند – که به نوعی توسط جامعه بهعنوان یک کل، توسط دولتها تعیین میشود. و بنابراین ایجاد آن مجموعه داده، مجموعه دادههای همسویی ما، میتواند یک قانون اساسی هوش مصنوعی باشد، هر چه باشد. سام آلتمن هفته گذشته در جریان جلسه استماع سنا گفت، این باید به طور گسترده از جامعه ناشی شود.
رفتار اضطراری – رفتار اضطراری روشی فنی است که می گوید برخی از مدل های هوش مصنوعی توانایی هایی را نشان می دهند که در ابتدا در نظر گرفته نشده بودند. همچنین میتواند نتایج شگفتآوری را از ابزارهای هوش مصنوعی که به طور گسترده برای عموم استفاده میشوند، توصیف کند.
به عنوان مثال: “با این حال، حتی به عنوان اولین گام، GPT-4 تعداد قابل توجهی از مفروضات گسترده در مورد هوش ماشینی را به چالش می کشد، و رفتارها و قابلیت های نوظهوری را نشان می دهد که منابع و مکانیسم های آنها در حال حاضر به سختی قابل تشخیص است.” در Sparks of Artificial Intelligence نوشته است.
برخاستن سریع یا برخاستن سخت – عبارتی که نشان می دهد اگر کسی موفق به ساخت AGI شود، برای نجات بشریت خیلی دیر شده است.
سام آلتمن، مدیر عامل OpenAI در یک پست وبلاگی گفت: “AGI ممکن است به زودی یا دور در آینده اتفاق بیفتد؛ سرعت برخاستن از AGI اولیه به سیستم های جانشین قدرتمندتر می تواند آهسته یا سریع باشد.”
فوم – راه دیگری برای گفتن “برخاست سخت”. این یک onomatopeia است، و همچنین در چندین پست وبلاگ و مقاله به عنوان مخفف “Fast Starset of Overwhelming Mastery” توصیف شده است.
مثال: “مثل اینکه به سناریوی مضحک “فوم” برخاستن سخت اعتقاد دارید، که باعث می شود به نظر برسد که درک کاملی از نحوه کار همه چیز ندارید.” توییت کرد یان لیکان، رئیس هوش مصنوعی متا.
پردازنده گرافیکی – تراشههایی که برای آموزش مدلها و اجرای استنتاج استفاده میشوند، که از نسل تراشههایی هستند که برای انجام بازیهای رایانهای پیشرفته استفاده میشوند. رایج ترین مدلی که در حال حاضر استفاده می شود A100 انویدیا است.
مثال: از عماد مستق، بنیانگذار هوش مصنوعی پایداری:
نرده های محافظ نرمافزارها و سیاستهایی هستند که شرکتهای بزرگ فناوری در حال حاضر روی مدلهای هوش مصنوعی ایجاد میکنند تا اطمینان حاصل کنند که دادهها درز نمیکنند یا محتوای مزاحم تولید نمیکنند، که اغلب به آن «خروج از ریل» میگویند. همچنین می تواند به برنامه های خاصی اشاره کند که از هوش مصنوعی در برابر خارج شدن از موضوع محافظت می کنند، مانند محصول “NeMo Guardrails” انویدیا.
کریستینا مونتگومری، رئیس IBM، مثال: «لحظه ایفای نقش دولت از این دوره از توجه عمومی متمرکز بر هوش مصنوعی سپری نشده است، دقیقاً زمان تعریف و ساختن نرده های محافظ مناسب برای محافظت از مردم و منافع آنها است. هیئت مدیره اخلاق هوش مصنوعی و معاون این شرکت در کنگره این هفته گفت.
استنباط – عمل استفاده از یک مدل هوش مصنوعی برای پیشبینی یا تولید متن، تصاویر یا محتوای دیگر. استنتاج می تواند به قدرت محاسباتی زیادی نیاز داشته باشد.
مثال: “مشکل استنتاج این است که حجم کار خیلی سریع افزایش می یابد، این همان اتفاقی است که برای ChatGPT رخ داد. در عرض پنج روز به یک میلیون کاربر رسید. هیچ راهی وجود ندارد که ظرفیت GPU شما بتواند با آن مطابقت داشته باشد.” Sid Sheth. بنیانگذار D-Matrix، قبلاً به CNBC گفته بود.
مدل زبان بزرگ – نوعی مدل هوش مصنوعی که زیربنای ChatGPT و ویژگی های جدید هوش مصنوعی مولد گوگل است. ویژگی تعیین کننده آن این است که از ترابایت داده برای یافتن روابط آماری بین کلمات استفاده می کند، به این ترتیب متنی تولید می کند که به نظر می رسد یک انسان آن را نوشته است.
به عنوان مثال: CNBC در اوایل این هفته گزارش داد: «مدل جدید زبان بزرگ گوگل که این شرکت هفته گذشته اعلام کرد، تقریباً پنج برابر بیشتر از دادههای آموزشی قبلی خود از سال 2022 استفاده میکند و به آن اجازه میدهد تا کارهای کدنویسی، ریاضی و نوشتن خلاقانهتری را انجام دهد. .
گیره کاغذ نماد مهمی برای طرفداران ایمنی هوش مصنوعی هستند زیرا نمادی از شانس یک AGI برای نابودی بشریت هستند. این به یک آزمایش فکری اشاره دارد که توسط فیلسوف نیک بوستروم در مورد یک “ابر هوش” با مأموریت ساخت هرچه بیشتر گیره کاغذ منتشر شده است. تصمیم می گیرد همه انسان ها، زمین و بخش های فزاینده کیهان را به گیره کاغذ تبدیل کند. لوگوی OpenAI اشاره ای به این داستان است.
بوستروم در مقاله خود نوشت: «همچنین به نظر می رسد که داشتن یک ابرهوش کاملاً ممکن است که تنها هدفش چیزی کاملاً خودسرانه باشد، مثلاً ساخت هر چه بیشتر گیره کاغذ، و با تمام قدرت در برابر هر تلاشی برای تغییر این هدف مقاومت کند». آزمایش فکری.
تکینگی اصطلاح قدیمیتری است که دیگر اغلب استفاده نمیشود، اما به لحظهای اشاره میکند که تغییرات تکنولوژیکی به خودی خود تقویت میشوند، یا لحظه ایجاد یک AGI. این یک استعاره است – به معنای واقعی کلمه، تکینگی به نقطه سیاهچاله ای با چگالی بی نهایت اشاره دارد.
به عنوان مثال، ایلان ماسک، مدیرعامل تسلا در مصاحبه ای با CNBC این هفته گفت: ظهور هوش مصنوعی عمومی یک تکینگی نامیده می شود زیرا پیش بینی اینکه بعد از آن چه اتفاقی خواهد افتاد بسیار سخت است.