بیشتر افراد هوش مصنوعی را از دریچهای یکطرفه میبینند. فناوری تنها برای خدمت به انسان و دستیابی به سطوح جدیدی از کارایی، دقت و بهرهوری وجود دارد. اما چه میشود اگر نیمی از معادله را از دست داده باشیم؟ و چه میشود اگر با این کار، فقط نقصهای این فناوری را تقویت کنیم؟
هوش مصنوعی در مراحل اولیه خود قرار دارد و همچنان با محدودیتهای قابل توجهی در استدلال، کیفیت داده و درک مفاهیمی مانند اعتماد، ارزش و انگیزهها روبرو است. شکاف بین قابلیتهای فعلی و "هوش" واقعی قابل توجه است. خبر خوب؟ میتوانیم این وضعیت را با تبدیل شدن به همکاران فعال به جای مصرفکنندگان منفعل هوش مصنوعی تغییر دهیم.
انسانها کلید تکامل هوشمند با ارائه چارچوبهای استدلالی بهتر، تغذیه دادههای باکیفیت و پر کردن شکاف اعتماد را در دست دارند. در نتیجه، انسان و ماشین میتوانند دست در دست هم برای یک وضعیت برد-برد کار کنند – که همکاری بهتر، داده بهتر و نتایج بهتری را به همراه دارد.
بیایید نگاهی به این رابطه همزیستیتر بیندازیم و ببینیم چگونه، به عنوان شرکا، همکاری معنادار میتواند به نفع هر دو سوی معادله هوش مصنوعی باشد.
رابطه ضروری بین انسان و ماشین
هوش مصنوعی بدون شک در تجزیه و تحلیل مجموعه دادههای عظیم و خودکارسازی کارهای پیچیده عالی است. با این حال، این فناوری همچنان در تفکر مانند ما محدودیتهای اساسی دارد. اولاً، این مدلها و پلتفرمها با استدلال فراتر از دادههای آموزشی خود مشکل دارند. تشخیص الگو و پیشبینی آماری مشکلی ایجاد نمیکند، اما قضاوت زمینهای و چارچوبهای منطقی که ما آنها را بدیهی میدانیم، تکرارشان چالشبرانگیزتر است. این شکاف در استدلال به این معنی است که هوش مصنوعی اغلب در مواجهه با سناریوهای ظریف یا قضاوت اخلاقی دچار مشکل میشود.
ثانیاً، مسئله "دادههای بیکیفیت ورودی، نتایج بیکیفیت خروجی" وجود دارد. مدلهای فعلی بر روی حجم عظیمی از اطلاعات با و بدون رضایت آموزش دیدهاند. اطلاعات تایید نشده یا جانبدارانه بدون توجه به انتساب یا مجوز مناسب استفاده میشود، منجر به هوش مصنوعی تایید نشده یا جانبدارانه میشود. بنابراین "رژیم دادهای" مدلها در بهترین حالت قابل تردید و در بدترین حالت نامنظم است. مفید است که این تاثیر را از نظر تغذیهای در نظر بگیریم. اگر انسانها فقط فست فود بخورند، کند و بیحال میشوند. اگر عاملها (agents) فقط مطالب دارای حق چاپ و دست دوم را مصرف کنند، عملکرد آنها نیز به همین ترتیب با خروجی نادرست، غیرقابل اعتماد و عمومی به جای خاص مختل میشود. این هنوز بسیار دور از تصمیمگیری خودمختار و پیشگیرانه است که در موج آتی عاملها وعده داده شده است.
بسیار مهم است که هوش مصنوعی هنوز نسبت به اینکه با چه کسی و چه چیزی تعامل دارد، کور است. نمیتواند بین کاربران همسو و ناهمسو تمایز قائل شود، در تایید روابط مشکل دارد و در درک مفاهیمی مانند اعتماد، مبادله ارزش و انگیزههای ذینفعان - عناصر اصلی که تعاملات انسانی را هدایت میکنند - ناتوان است.
مشکلات هوش مصنوعی با راهحلهای انسانی
ما باید پلتفرمها، ابزارها و عاملهای هوش مصنوعی را کمتر به عنوان خدمتکار و بیشتر به عنوان دستیارانی در نظر بگیریم که میتوانیم به آموزش آنها کمک کنیم. برای شروع، بیایید به استدلال نگاه کنیم. میتوانیم چارچوبهای منطقی جدید، دستورالعملهای اخلاقی و تفکر استراتژیک را معرفی کنیم که سیستمهای هوش مصنوعی نمیتوانند به تنهایی توسعه دهند. از طریق پرسشهای متفکرانه و نظارت دقیق، میتوانیم نقاط قوت آماری هوش مصنوعی را با خرد انسانی تکمیل کنیم – به آنها یاد میدهیم تا الگوها را تشخیص دهند و زمینههایی را که آن الگوها را معنادار میکنند، درک کنند.
به همین ترتیب، به جای اجازه دادن به هوش مصنوعی برای آموزش بر روی هر اطلاعاتی که میتواند از اینترنت جمعآوری کند، انسانها میتوانند مجموعه دادههای با کیفیتتری را که تایید شده، متنوع و از منابع اخلاقی به دست آمدهاند، ساماندهی کنند.
این بدان معناست که سیستمهای انتساب بهتری توسعه دهیم که در آن خالقان محتوا برای مشارکتهای خود در آموزش شناخته و جبران خسارت شوند.
چارچوبهای نوظهور این امر را ممکن میسازند. با یکپارچه کردن هویتهای آنلاین تحت یک چتر و تصمیمگیری در مورد اینکه آیا و چه چیزی را با آن راحت هستند به اشتراک بگذارند، کاربران میتوانند مدلها را با اطلاعات شخص-صفر تجهیز کنند که حریم خصوصی، رضایت و مقررات را رعایت میکند. بهتر از آن، با ردیابی این اطلاعات در بلاکچین، کاربران و سازندگان مدل میتوانند ببینند اطلاعات از کجا میآید و خالقان را به اندازه کافی برای ارائه این "نفت جدید" جبران کنند. اینگونه است که ما کاربران را برای دادههایشان قدردانی میکنیم و آنها را در انقلاب اطلاعات سهیم میکنیم.
در نهایت، پر کردن شکاف اعتماد به معنای تجهیز مدلها با ارزشها و نگرشهای انسانی است. این بدان معناست که مکانیزمهایی طراحی کنیم که ذینفعان را شناسایی کرده، روابط را تایید کرده و بین کاربران همسو و ناهمسو تمایز قائل شوند. در نتیجه، ما به هوش مصنوعی کمک میکنیم تا زمینه عملیاتی خود را درک کند – چه کسی از اقدامات آن سود میبرد، چه چیزی به توسعه آن کمک میکند و چگونه ارزش در سیستمهایی که در آنها شرکت میکند جریان مییابد.
به عنوان مثال، عاملهایی که توسط زیرساخت بلاکچین پشتیبانی میشوند، در این زمینه بسیار خوب عمل میکنند. آنها میتوانند کاربرانی را که از طریق شهرت، نفوذ اجتماعی یا مالکیت توکن، سرمایهگذاری خود را در اکوسیستم نشان دادهاند، شناسایی و اولویتبندی کنند. این به هوش مصنوعی اجازه میدهد تا انگیزهها را با دادن وزن بیشتر به ذینفعانی که درگیر هستند، همسو کند و سیستمهای حاکمیتی ایجاد کند که در آن حامیان تایید شده بر اساس سطح مشارکت خود در تصمیمگیری شرکت کنند. در نتیجه، هوش مصنوعی اکوسیستم خود را عمیقتر درک میکند و میتواند تصمیماتی بگیرد که بر اساس روابط واقعی ذینفعان است.
عنصر انسانی را در هوش مصنوعی از دست ندهید
حرفهای زیادی درباره ظهور این فناوری و اینکه چگونه تهدید میکند صنایع را بازسازی کرده و مشاغل را از بین ببرد، گفته شده است. با این حال، گنجاندن محافظها میتواند اطمینان حاصل کند که هوش مصنوعی تجربه انسانی را افزایش میدهد، نه اینکه آن را نادیده بگیرد. به عنوان مثال، موفقترین پیادهسازیهای هوش مصنوعی جایگزین انسانها نمیشوند، بلکه آنچه را که میتوانیم با هم به دست آوریم، گسترش میدهند. هنگامی که هوش مصنوعی تحلیلهای روتین را انجام میدهد و انسانها جهت خلاقانه و نظارت اخلاقی را ارائه میدهند، هر دو طرف نقاط قوت منحصر به فرد خود را به اشتراک میگذارند.
هنگامی که هوش مصنوعی به درستی انجام شود، وعده بهبود کیفیت و کارایی فرآیندهای انسانی بیشماری را میدهد. اما هنگامی که به درستی انجام نشود، توسط منابع دادهای مشکوک محدود میشود و تنها هوش را تقلید میکند، نه اینکه هوش واقعی را به نمایش بگذارد. این وظیفه ماست، سویه انسانی معادله، که این مدلها را هوشمندتر کنیم و اطمینان حاصل کنیم که ارزشها، قضاوت و اخلاق ما در قلب آنها باقی میماند.
اعتماد برای عمومی شدن این فناوری غیرقابل مذاکره است. هنگامی که کاربران میتوانند تایید کنند که دادههایشان کجا میرود، ببینند چگونه استفاده میشود و در ارزشی که ایجاد میکند شرکت کنند، به جای موضوعات بیمیل، شرکای مایل میشوند. به همین ترتیب، هنگامی که سیستمهای هوش مصنوعی میتوانند از ذینفعان همسو و خطوط لوله داده شفاف استفاده کنند، قابل اعتمادتر میشوند. به نوبه خود، آنها به احتمال زیاد به مهمترین فضاهای خصوصی و حرفهای ما دسترسی پیدا میکنند، که یک چرخه بازخورد برای دسترسی بهتر به دادهها و نتایج بهبود یافته ایجاد میکند.
بنابراین، در ورود به این مرحله بعدی هوش مصنوعی، بیایید بر روی اتصال انسان و ماشین با روابط قابل تایید، منابع داده با کیفیت و سیستمهای دقیق تمرکز کنیم. نباید بپرسیم هوش مصنوعی برای ما چه کاری میتواند انجام دهد، بلکه باید بپرسیم ما برای هوش مصنوعی چه کاری میتوانیم انجام دهیم.