کار کردن دست در دست با هوش مصنوعی
کار کردن دست در دست با هوش مصنوعی

مسئله این نیست که هوش مصنوعی برای ما چه کاری می‌تواند انجام دهد، بلکه این است که ما برای هوش مصنوعی چه کاری می‌توانیم انجام دهیم

بیشتر افراد هوش مصنوعی را از دریچه‌ای یک‌طرفه می‌بینند. فناوری تنها برای خدمت به انسان و دستیابی به سطوح جدیدی از کارایی، دقت و بهره‌وری وجود دارد. اما چه می‌شود اگر نیمی از معادله را از دست داده باشیم؟ و چه می‌شود اگر با این کار، فقط نقص‌های این فناوری را تقویت کنیم؟

هوش مصنوعی در مراحل اولیه خود قرار دارد و همچنان با محدودیت‌های قابل توجهی در استدلال، کیفیت داده و درک مفاهیمی مانند اعتماد، ارزش و انگیزه‌ها روبرو است. شکاف بین قابلیت‌های فعلی و "هوش" واقعی قابل توجه است. خبر خوب؟ می‌توانیم این وضعیت را با تبدیل شدن به همکاران فعال به جای مصرف‌کنندگان منفعل هوش مصنوعی تغییر دهیم.

انسان‌ها کلید تکامل هوشمند با ارائه چارچوب‌های استدلالی بهتر، تغذیه داده‌های باکیفیت و پر کردن شکاف اعتماد را در دست دارند. در نتیجه، انسان و ماشین می‌توانند دست در دست هم برای یک وضعیت برد-برد کار کنند – که همکاری بهتر، داده بهتر و نتایج بهتری را به همراه دارد.

بیایید نگاهی به این رابطه همزیستی‌تر بیندازیم و ببینیم چگونه، به عنوان شرکا، همکاری معنادار می‌تواند به نفع هر دو سوی معادله هوش مصنوعی باشد.

رابطه ضروری بین انسان و ماشین

هوش مصنوعی بدون شک در تجزیه و تحلیل مجموعه داده‌های عظیم و خودکارسازی کارهای پیچیده عالی است. با این حال، این فناوری همچنان در تفکر مانند ما محدودیت‌های اساسی دارد. اولاً، این مدل‌ها و پلتفرم‌ها با استدلال فراتر از داده‌های آموزشی خود مشکل دارند. تشخیص الگو و پیش‌بینی آماری مشکلی ایجاد نمی‌کند، اما قضاوت زمینه‌ای و چارچوب‌های منطقی که ما آن‌ها را بدیهی می‌دانیم، تکرارشان چالش‌برانگیزتر است. این شکاف در استدلال به این معنی است که هوش مصنوعی اغلب در مواجهه با سناریوهای ظریف یا قضاوت اخلاقی دچار مشکل می‌شود.

ثانیاً، مسئله "داده‌های بی‌کیفیت ورودی، نتایج بی‌کیفیت خروجی" وجود دارد. مدل‌های فعلی بر روی حجم عظیمی از اطلاعات با و بدون رضایت آموزش دیده‌اند. اطلاعات تایید نشده یا جانبدارانه بدون توجه به انتساب یا مجوز مناسب استفاده می‌شود، منجر به هوش مصنوعی تایید نشده یا جانبدارانه می‌شود. بنابراین "رژیم داده‌ای" مدل‌ها در بهترین حالت قابل تردید و در بدترین حالت نامنظم است. مفید است که این تاثیر را از نظر تغذیه‌ای در نظر بگیریم. اگر انسان‌ها فقط فست فود بخورند، کند و بی‌حال می‌شوند. اگر عامل‌ها (agents) فقط مطالب دارای حق چاپ و دست دوم را مصرف کنند، عملکرد آن‌ها نیز به همین ترتیب با خروجی نادرست، غیرقابل اعتماد و عمومی به جای خاص مختل می‌شود. این هنوز بسیار دور از تصمیم‌گیری خودمختار و پیشگیرانه است که در موج آتی عامل‌ها وعده داده شده است.

بسیار مهم است که هوش مصنوعی هنوز نسبت به اینکه با چه کسی و چه چیزی تعامل دارد، کور است. نمی‌تواند بین کاربران همسو و ناهمسو تمایز قائل شود، در تایید روابط مشکل دارد و در درک مفاهیمی مانند اعتماد، مبادله ارزش و انگیزه‌های ذینفعان - عناصر اصلی که تعاملات انسانی را هدایت می‌کنند - ناتوان است.

این تگ حاوی اطلاعات مهمی است و نباید حذف شود.

مشکلات هوش مصنوعی با راه‌حل‌های انسانی

ما باید پلتفرم‌ها، ابزارها و عامل‌های هوش مصنوعی را کمتر به عنوان خدمتکار و بیشتر به عنوان دستیارانی در نظر بگیریم که می‌توانیم به آموزش آن‌ها کمک کنیم. برای شروع، بیایید به استدلال نگاه کنیم. می‌توانیم چارچوب‌های منطقی جدید، دستورالعمل‌های اخلاقی و تفکر استراتژیک را معرفی کنیم که سیستم‌های هوش مصنوعی نمی‌توانند به تنهایی توسعه دهند. از طریق پرسش‌های متفکرانه و نظارت دقیق، می‌توانیم نقاط قوت آماری هوش مصنوعی را با خرد انسانی تکمیل کنیم – به آن‌ها یاد می‌دهیم تا الگوها را تشخیص دهند و زمینه‌هایی را که آن الگوها را معنادار می‌کنند، درک کنند.

به همین ترتیب، به جای اجازه دادن به هوش مصنوعی برای آموزش بر روی هر اطلاعاتی که می‌تواند از اینترنت جمع‌آوری کند، انسان‌ها می‌توانند مجموعه داده‌های با کیفیت‌تری را که تایید شده، متنوع و از منابع اخلاقی به دست آمده‌اند، ساماندهی کنند.

این بدان معناست که سیستم‌های انتساب بهتری توسعه دهیم که در آن خالقان محتوا برای مشارکت‌های خود در آموزش شناخته و جبران خسارت شوند.

چارچوب‌های نوظهور این امر را ممکن می‌سازند. با یکپارچه کردن هویت‌های آنلاین تحت یک چتر و تصمیم‌گیری در مورد اینکه آیا و چه چیزی را با آن راحت هستند به اشتراک بگذارند، کاربران می‌توانند مدل‌ها را با اطلاعات شخص-صفر تجهیز کنند که حریم خصوصی، رضایت و مقررات را رعایت می‌کند. بهتر از آن، با ردیابی این اطلاعات در بلاکچین، کاربران و سازندگان مدل می‌توانند ببینند اطلاعات از کجا می‌آید و خالقان را به اندازه کافی برای ارائه این "نفت جدید" جبران کنند. اینگونه است که ما کاربران را برای داده‌هایشان قدردانی می‌کنیم و آن‌ها را در انقلاب اطلاعات سهیم می‌کنیم.

در نهایت، پر کردن شکاف اعتماد به معنای تجهیز مدل‌ها با ارزش‌ها و نگرش‌های انسانی است. این بدان معناست که مکانیزم‌هایی طراحی کنیم که ذینفعان را شناسایی کرده، روابط را تایید کرده و بین کاربران همسو و ناهمسو تمایز قائل شوند. در نتیجه، ما به هوش مصنوعی کمک می‌کنیم تا زمینه عملیاتی خود را درک کند – چه کسی از اقدامات آن سود می‌برد، چه چیزی به توسعه آن کمک می‌کند و چگونه ارزش در سیستم‌هایی که در آن‌ها شرکت می‌کند جریان می‌یابد.

به عنوان مثال، عامل‌هایی که توسط زیرساخت بلاکچین پشتیبانی می‌شوند، در این زمینه بسیار خوب عمل می‌کنند. آن‌ها می‌توانند کاربرانی را که از طریق شهرت، نفوذ اجتماعی یا مالکیت توکن، سرمایه‌گذاری خود را در اکوسیستم نشان داده‌اند، شناسایی و اولویت‌بندی کنند. این به هوش مصنوعی اجازه می‌دهد تا انگیزه‌ها را با دادن وزن بیشتر به ذینفعانی که درگیر هستند، همسو کند و سیستم‌های حاکمیتی ایجاد کند که در آن حامیان تایید شده بر اساس سطح مشارکت خود در تصمیم‌گیری شرکت کنند. در نتیجه، هوش مصنوعی اکوسیستم خود را عمیق‌تر درک می‌کند و می‌تواند تصمیماتی بگیرد که بر اساس روابط واقعی ذینفعان است.

عنصر انسانی را در هوش مصنوعی از دست ندهید

حرف‌های زیادی درباره ظهور این فناوری و اینکه چگونه تهدید می‌کند صنایع را بازسازی کرده و مشاغل را از بین ببرد، گفته شده است. با این حال، گنجاندن محافظ‌ها می‌تواند اطمینان حاصل کند که هوش مصنوعی تجربه انسانی را افزایش می‌دهد، نه اینکه آن را نادیده بگیرد. به عنوان مثال، موفق‌ترین پیاده‌سازی‌های هوش مصنوعی جایگزین انسان‌ها نمی‌شوند، بلکه آنچه را که می‌توانیم با هم به دست آوریم، گسترش می‌دهند. هنگامی که هوش مصنوعی تحلیل‌های روتین را انجام می‌دهد و انسان‌ها جهت خلاقانه و نظارت اخلاقی را ارائه می‌دهند، هر دو طرف نقاط قوت منحصر به فرد خود را به اشتراک می‌گذارند.

هنگامی که هوش مصنوعی به درستی انجام شود، وعده بهبود کیفیت و کارایی فرآیندهای انسانی بی‌شماری را می‌دهد. اما هنگامی که به درستی انجام نشود، توسط منابع داده‌ای مشکوک محدود می‌شود و تنها هوش را تقلید می‌کند، نه اینکه هوش واقعی را به نمایش بگذارد. این وظیفه ماست، سویه انسانی معادله، که این مدل‌ها را هوشمندتر کنیم و اطمینان حاصل کنیم که ارزش‌ها، قضاوت و اخلاق ما در قلب آن‌ها باقی می‌ماند.

اعتماد برای عمومی شدن این فناوری غیرقابل مذاکره است. هنگامی که کاربران می‌توانند تایید کنند که داده‌هایشان کجا می‌رود، ببینند چگونه استفاده می‌شود و در ارزشی که ایجاد می‌کند شرکت کنند، به جای موضوعات بی‌میل، شرکای مایل می‌شوند. به همین ترتیب، هنگامی که سیستم‌های هوش مصنوعی می‌توانند از ذینفعان همسو و خطوط لوله داده شفاف استفاده کنند، قابل اعتمادتر می‌شوند. به نوبه خود، آن‌ها به احتمال زیاد به مهمترین فضاهای خصوصی و حرفه‌ای ما دسترسی پیدا می‌کنند، که یک چرخه بازخورد برای دسترسی بهتر به داده‌ها و نتایج بهبود یافته ایجاد می‌کند.

بنابراین، در ورود به این مرحله بعدی هوش مصنوعی، بیایید بر روی اتصال انسان و ماشین با روابط قابل تایید، منابع داده با کیفیت و سیستم‌های دقیق تمرکز کنیم. نباید بپرسیم هوش مصنوعی برای ما چه کاری می‌تواند انجام دهد، بلکه باید بپرسیم ما برای هوش مصنوعی چه کاری می‌توانیم انجام دهیم.