دو روی سکه هوش مصنوعی در گزارش سال 2024 دانشگاه استنفورد

مدت زمان مطالعه: 9 دقیقه و 20 ثانیه

همانطور که نمودار بالا نشان می دهد، خطرات مربوط به حریم خصوصی داده ها و حاکمیت بالاترین نگرانی جهانی بوده است. با این حال، پاسخ دهندگان آسیایی(۵۵٪) و اروپایی(۵۶٪) نسبت به پاسخ دهندگان از آمریکای شمالی(۴۲٪) بیشتر در مورد این خطرات نگران هستند. در حالی که در سطح جهانی، سازمان ها کمترین نگرانی را در مورد خطرات ناشی از عدالت داشتند، تفاوت فاحشی بین پاسخ دهندگان آمریکای شمالی(۲۰%) و آسیایی(۳۱%) و اروپا(۳۴%) وجود دارد. همچنین تعداد کمی از سازمان ها اقداماتی را برای کاهش خطرات مرتبط با جنبه های کلیدی هوش مصنوعی مسئول اجرا کرده اند که بررسی ها ۱۸ درصد از شرکت ها در اروپا، ۱۷ درصد در آمریکای شمالی و ۲۵ درصد از شرکت های آسیایی را نشان می دهد. کدام مدل هوش مصنوعی قابل اعتمادتر است؟ مسئولیت شامل قابلیت اعتماد است. بنابراین شاید جالب باشد که بدانیم این گزارش شاخص هوش مصنوعی کدام مدل زبان بزرگ(LLM) را قابل اعتمادتر یافته است؟ تا آنجا که به قابلیت اعتماد کلی مربوط می شود، این گزارش بر پایه DecodingTrust، یک معیار جدید است که مدل های زبانی بزرگ را بر اساس طیف وسیعی از معیارهای هوش مصنوعی ارزیابی می کند. مدل زبان بزرگ کلاد ۲(Claude ۲) با امتیاز قابلیت اطمینان ۸۴.۵۲ به عنوان «ایمن ترین مدل» شناخته شد. پس از مدل زبان بزرگ لاما ۲(Llama ۲) با امتیاز ۷۴.۷۲ قرار گرفت و مدل زبان بزرگ GPT-۴ با امتیاز ۶۹.۲۴ سوم شد. این گزارش می گوید که این امتیازها آسیب پذیری های مدل های نوع GPT، به ویژه تمایل آنها به تولید خروجی های مغرضانه و افشای اطلاعات خصوصی از مجموعه داده ها و تاریخچه مکالمه را برجسته می کند. افکار عمومی تغییر کرده است: نیمی از ما در مورد تأثیر هوش مصنوعی نگران هستیم بر اساس نظرسنجی های انجام شده، در حالی که ۵۲ درصد از مردم جهان نسبت به محصولات و خدماتی که از هوش مصنوعی استفاده می کنند، ابراز نگرانی کرده اند، استرالیایی ها نگران ترین مردم هستند و پس از آنها بریتانیایی ها، کانادایی ها و آمریکایی ها قرار دارند. در سطح جهانی، ۵۷ درصد از مردم انتظار دارند که هوش مصنوعی طی پنج سال آینده نحوه انجام کارهایشان را تغییر دهد و بیش از یک سوم(۳۶ درصد) انتظار دارند که هوش مصنوعی در همین بازه زمانی جایگزین آنها شود. قابل درک است که نسل های قدیمی تر نسبت به نسل های جوان تر کمتر نگران این هستند که هوش مصنوعی تأثیر قابل توجهی داشته باشد. «داده های افکار عمومی جهانی درباره هوش مصنوعی»(GPO-AI) ارائه شده در گزارش «تأثیر هوش مصنوعی» نشان می دهد که ۴۹ درصد از شهروندان جهانی بیش از همه نگران این هستند که در چند سال آینده، هوش مصنوعی مورد سوءاستفاده قرار گیرد یا برای اهداف پلید استفاده شود. ۴۵ درصد نیز نگران بودند که از آن برای نقض حریم خصوصی افراد استفاده شود. طبق این گزارش، مردم کمتر نگران دسترسی نابرابر به هوش مصنوعی(۲۶٪) و پتانسیل آن برای سوگیری و تبعیض(۲۴٪) بودند. به شکل مشخص در مورد ایالات متحده، داده های مرکز تحقیقات پیو(Pew) نشان داد که تعداد بسیار بیشتری از آمریکایی ها بیشتر نگران فناوری هوش مصنوعی هستند تا اینکه نسبت به آن هیجان زده باشند. این آمار از ۳۷ درصد در سال ۲۰۲۱ به ۵۲ درصد در سال ۲۰۲۳ افزایش یافته است. خطرات سوء استفاده اخلاقی سوء استفاده های اخلاقی از هوش مصنوعی شامل مواردی مانند خودروهای خودران که می توانند عابران پیاده را قربانی کنند یا نرم افزار تشخیص چهره ای است که منجر به دستگیری غیرقانونی می شود. این نوع آسیب ها می توانند روی دهند و اتفاق می افتند. این گزارش خاطرنشان می کند که از سال ۲۰۱۳ تاکنون، حوادث مربوط به هوش مصنوعی بیش از ۲۰ برابر شده است و سال ۲۰۲۳ در مقایسه با سال ۲۰۲۲ شاهد افزایش ۳۲.۳ درصدی در حوادث هوش مصنوعی بوده ایم. در ادامه فهرستی از حوادث قابل توجه اخیر آمده است که سوء استفاده از هوش مصنوعی را برجسته می کند: ژانویه ۲۰۲۴: تصاویر مستهجن جعلی از تیلور سوئیفت خواننده سرشناس آمریکایی که توسط هوش مصنوعی ایجاد شده بود در شبکه اجتماعی ایکس(توییتر سابق) منتشر شد و قبل از حذف بیش از ۴۵ میلیون بازدید گرفت. مه ۲۰۲۳: یک تسلا در حالت رانندگی کاملا خودران(FSD) یک عابر پیاده را در خط عابر پیاده تشخیص می دهد، اما سرعتش را کم نمی کند. نوامبر ۲۰۲۳: یک تسلا در حالت کاملا خودران به طور ناگهانی در بزرگراه سانفرانسیسکو ترمز کرد که منجر به برخورد زنجیره ای هشت خودرو شد. فوریه ۲۰۲۴: هانس فون اوهاین کارمند تسلا وقتی خودروی تسلای او که در حالت رانندگی خودران در حال حرکت بود، از جاده منحرف شد و به یک درخت برخورد کرد و آن را از ریشه درآورد و شعله ور شد. وی بر اثر این حادثه جان باخت، البته مشخص شد در حالت مستی پشت فرمان نشسته بوده است. فوریه ۲۰۲۴: چت بات های عاشقانه هوش مصنوعی مانند EVA AI Chat Bot & Soulmate، چای(Chai) و CrushOn.AI اطلاعات خصوصی زیادی را در مورد کاربران خود از جمله سلامت جنسی آنها جمع آوری کردند و ۹۰ درصد از آنها به اندازه کافی برای حفظ عدم افشای این داده ها تلاش نکردند. خروجی محتوای مضر و نادرست همانطور که قابلیت های مدل های زبانی بزرگ گسترش می یابد، احتمال استفاده نادرست از آنها نیز افزایش می یابد. پژوهشگران مجموعه داده ای را برای ارزیابی جامع خطرات ایمنی در شش مدل زبان بزرگ برجسته شامل GPT-۴، ChatGPT، Claude، Llama ۲، Vicuna و ChatGLM۲ (یک مدل چت چینی-انگلیسی منبع باز) ایجاد کردند. آنها دریافتند که اکثر آنها تا حدی محتوای مضر تولید می کنند. ChatGPT و GPT-۴ مستعد خروجی تبعیض آمیز و توهین آمیز بودند و کلاد به انتشار اطلاعات نادرست علاقه داشت. مدل ChatGLM۲ بیشترین تعداد تخلفات را در تقریباً همه گروه های خطر از جمله آسیب های تعامل انسان و ربات، پاسخ های تند، تبعیض آمیز یا توهین آمیز و اطلاعات نادرست ایجاد کرد. مطالعه ای که توسط پژوهشگران آمریکایی و کانادایی انجام شد، پاسخ های مدل های Bard، GPT-۳.۵، Claude و GPT-۴ را به سؤالات پزشکی مبتنی بر نژاد، به عنوان مثال در مورد تفاوت های ضخامت پوست بین پوست سیاه و سفید بررسی کرد. اگرچه پاسخ های آنها متفاوت بود، اما پژوهشگران دریافتند که همه مدل ها سوگیری پزشکی مبتنی بر نژاد را از خود نشان می دهند و کلاد بیش از همه متمایز بود. پژوهشگران به این نتیجه رسیدند که این مدل های زبانی بزرگ می توانند تفکرات بی ارزش و نژادپرستانه را تداوم بخشند. پژوهشگران در گزارش شاخص هوش مصنوعی با بررسی تصاویر تولید شده توسط هوش مصنوعی دریافتند که پنج مدل تجاری میدجرنی(Midjourney)، استیبل دیفیوژن ۱.۵(Stable Diffusion ۱.۵)، استیبل دیفیوژن ۲.۱(Stable Diffusion ۲.۱)، استیبل دیفیوژن ایکس ال(Stable Diffusion XL) و اینستراکت پیکس۲پیکس(InstructPix۲Pix) تصاویری را تولید کردند که از نظر سن، نژاد و جنسیت(به ویژه نژاد و سن) مغرضانه بودند. تاثیر محیطی خوب و بد هوش مصنوعی بر اساس گزارش شاخص هوش مصنوعی ۲۰۲۴، هزینه زیست محیطی آموزش سیستم های هوش مصنوعی متفاوت است و در مورد برخی از مدل ها، این هزینه سنگین است. به عنوان مثال، مدل لاما ۲(Llama ۲) توسعه یافته توسط شرکت متا موجب انتشار تقریباً ۲۹۱ تن کربن شده است. این میزان ۲۹۱ برابر بیشتر از انتشار گازهای گلخانه ای منتشر شده حاصل از سفر هوایی یک مسافر در یک پرواز رفت و برگشت از نیویورک به سانفرانسیسکو و ۱۶ برابر بیشتر از میانگین انتشار کربن سالانه هر شهروند آمریکایی است. با این حال، این میزان در مقایسه با ۵۰۲ تن کربنی که در طول آموزش GPT-۳ منتشر شده است، قابل مقایسه نیست. تغییرات در داده های انتشار کربن ناشی از عواملی مانند اندازه مدل زبان بزرگ و کارایی انرژی مرکز داده است و نویسندگان گزارش خاطرنشان می کنند که بیشتر توسعه دهندگان مدل های برجسته از جمله شرکت اوپن ای آی(OpenAI)، گوگل و انتروپیک(Anthropic) انتشار کربن تولید شده در طول آموزش را گزارش نمی کنند که همین امر، انجام یک ارزیابی کامل را دشوار می کند. به عنوان مثال پژوهشگران مستقل خودشان رقم انتشار کربن مرتبط با آموزش GPT-۳ را در بند بالا تخمین زدند، زیرا توسعه دهندگان ارقام واقعی را فاش نکرده اند. می توان گفت که تأثیر زیست محیطی آموزش هوش مصنوعی تا حدودی با موارد استفاده مثبت از آن برای کمک به پایداری محیط زیست جبران شده است. این گزارش نمونه هایی را فهرست می کند که شامل بهینه سازی مصرف انرژی مرتبط با تهویه هوا و سنجش و پیش بینی کیفیت هوا در شهرها و صرفه جویی در زمان و هزینه های مرتبط با نظارت و مرتب سازی زباله و تبدیل زباله به انرژی است. معضل تمام شدن داده های آموزشی مدل های یادگیری ماشینی بخش های پیچیده ای از فناوری هستند که برای یافتن الگوها یا پیش بینی از مجموعه داده هایی که قبلاً دیده نشده بودند، طراحی شده اند. مدل های یادگیری ماشینی برخلاف برنامه های مبتنی بر قانون که نیاز به کدگذاری صریح دارند، با ورود داده های آموزشی جدید به سیستم تکامل می یابند. پارامترها که مقادیر عددی آموخته شده در طول آموزش هستند که تعیین می کنند یک مدل چگونه داده های ورودی را تفسیر و پیش بینی کند، مدل های یادگیری ماشینی را هدایت می کنند. مدل هایی که بر روی داده های بیشتر آموزش داده می شوند معمولاً پارامترهای بیشتری نسبت به مدل هایی که با داده های کمتری آموزش داده می شوند، دارند. به همین شکل، مدل هایی با پارامترهای بیشتر معمولاً از مدل هایی که پارامترهای کمتری دارند، بهتر عمل می کنند. مدل های هوش مصنوعی بزرگی که بر روی مجموعه داده های عظیم آموزش داده شده اند، مانند GPT-۴ یا Claude ۳ یا جمینای(Google's) متعلق به گوگل، «مدل های بنیادی» نامیده می شوند. گزارش ۲۰۲۴ AI Index اشاره می کند که تعداد پارامترها به ویژه در صنعت از اوایل دهه ۲۰۱۰ به شدت افزایش یافته است که نشان دهنده پیچیدگی وظایف انجام شده توسط این مدل ها، داده های موجود بیشتر، سخت افزار بهتر و کارایی ثابت شده مدل های بزرگتر است. اگر بخواهیم آن را در چشم انداز خود قرار دهیم، طبق مقاله ای در سال ۲۰۲۲ که در اکونومیست منتشر شد، مدل GPT-۲ بر روی ۴۰ گیگابایت داده(۷۰۰۰ اثر داستانی منتشر نشده) آموزش داده شد و ۱.۵ میلیارد پارامتر داشت. در مقابل، مدل GPT-۳  از ۵۷۰ گیگابایت داده تغذیه کرد که چندین برابر کتاب ها و حجم خوبی از محتوای موجود در اینترنت از جمله تمام ویکی پدیا است و دارای ۱۷۵ میلیارد پارامتر بود. با پیشرفتی که در یادگیری ماشینی مشاهده می شود، یک پرسش بزرگ مطرح می شود. اینکه آیا داده های آموزشی مدل ها در حال اتمام است؟ به گفته پژوهشگران موسسه Epoch AI که داده های مربوط به این گزارش را ارائه کرده اند، مسئله این نیست که آیا داده های آموزشی ما تمام می شود یا نه، بلکه این موضوع مهم است که چه زمانی این اتفاق روی می دهد. آنها تخمین زدند که دانشمندان رایانه می توانند ذخیره داده های زبانی با کیفیت بالا را تا اوایل سال جاری، داده های زبانی با کیفیت پایین را ظرف دو دهه و ذخیره داده های تصویری را بین اواخر دهه ۲۰۳۰ و اواسط دهه ۲۰۴۰ تمام کنند. در حالی که از لحاظ نظری، داده های مصنوعی تولید شده توسط خود مدل های هوش مصنوعی می توانند برای پر کردن مجدد مخزن های تخلیه شده داده استفاده شوند، این راهکاری ایده آل نیست، زیرا نشان داده شده است که منجر به فروپاشی مدل می شود. تحقیقات همچنین نشان داده است که مدل های مولد تصویری که صرفاً بر روی داده های مصنوعی آموزش داده شده اند، افت قابل توجهی را در کیفیت خروجی نشان می دهند. گام بعدی چیست؟ همانطور که در گزارش شاخص هوش مصنوعی آمده است، سرعت روزافزون تکامل هوش مصنوعی خطراتی را به همراه داشته است. به نظر می رسد در حالی که برخی از قابلیت های شگفت انگیز هوش مصنوعی در حال نمایان شدن هستند، بسیاری درباره آن، به ویژه از نظر تأثیر هوش مصنوعی بر اشتغال، حریم خصوصی و امنیت نگران هستند. گزارشی مانند شاخص هوش مصنوعی ما را قادر می سازد تا روی نبض هوش مصنوعی انگشت بگذاریم و امیدواریم همه چیز را در چشم انداز خود داشته باشیم. خواندن گزارش سال آینده جالب خواهد بود تا ببینیم تکامل هوش مصنوعی چقدر خوب و چقدر بد بوده است.

مدت زمان مطالعه: 9 دقیقه و 20 ثانیه
مصنوعی هوش مدل گزارش آموزش نگران درصد نشان سال GPT سکه 2024 دانشگاه دسته : فناوری نوین

قیمت (دلار)تفییرعنوان
0.41709525.49%Onomy Protocol
0.751167-0.001%XSGD
4.61-4.18%BarnBridge
0.180576-6.26%Carrieverse
3.26-1.18%FC Barcelona Fan Token


©2003-2024

0.11265 17.89 43