هوش مصنوعی و جلوگیری از شیوع آنفلوانزا در آینده
همراه ما باشید

هوش مصنوعی و جلوگیری از شیوع آنفلوانزا در آینده

آی‌سی‌تی‌نیوز - نهادهای پزشکی و مراقبتی سرتاسر جهان، به دلیل شیوع ویروس کورونای جدید، زمستان امسال را پرکار آغاز کرده اند.

به گزارش انگجت، بر اساس آخرین آمارها بیش از 64 هزار مورد ابتلا به این ویروس که نام رسمی آن COVID-19 است، شناسایی شده و تعداد جان باختگان نیز از 1384 نفر فراتر رفته است. این ویروس با سرعت نگران کننده ای در حال گسترش است و هراس جهانی از شیوع آن، حتی به لغو رویدادهای مهمی مانند کنگره جهانی موبایل بارسلون (MWC 2020)، یک هفته مانده به آغاز، انجامیده است.

اما در آینده نزدیک، ساخت داروها به کمک هوش مصنوعی، می تواند به تولید واکسن ها و درمان هایی منجر شود که به سرعت از شیوع ویروس های کشنده، پیش از آنکه به اپیدمی جهانی تبدیل شوند، جلوگیری کند.

روش های متداول ساخت دارو و واکسن، امروز دیگر کارآمد نیست؛ زیرا محققان گاه نزدیک به یک دهه را در آزمایشگاه ها صرف می کنند تا یکی یکی مولکول های کاندیدا را با روش سعی و خطا آزمایش کنند.

تحقیقی که در سال 2019 میلادی از سوی مرکز Tufts انجام شده، بیان می دارد که توسعه یک درمان دارویی جدید، به طور متوسط 2.6 میلیارد دلار هزینه دارد که این هزینه نسبت به سال 2003 میلادی بیش از دو برابر شده است و جالب اینکه فقط 12 درصد داروهای ساخته شده، موفق به دریافت تاییدیه سازمان غذا و داروی آمریکا (FDA) می شوند.

از سوی دیگر، به گفته دکتر اوا ماریا استراوچ، استادیار علوم دارویی و زیست پزشکی دانشگاه جورجیا، فرایند تایید داروها در FDA نیز خود 5 تا 10 سال به طول می انجامد.

با این حال، با کمک سیستم های یادگیری ماشین، محققان زیست پزشکی می توانند روش آزمون و خطا را به فراموشی بسپارند و به جای اینکه به طور سیستماتیک، هر روش درمانی احتمالی را به طور دستی آزمایش کنند، این کار را به هوش مصنوعی بسپارند. هوش مصنوعی با بررسی پایگاه داده های عظیم، می تواند ترکیب های مناسب احتمالی را بیابد و بگوید که کدام یک در درمان موثر خواهد بود.

به گزارش فناوران جاشوا سوامیداس، متخصص زیست شناسی رایانشی در دانشگاه واشنگتن در سال 2019 به نشریه The Scientist گفته بود: دیگر زمان آن گذشته که تیم های ساخت دارو، داده ها را در ذهن شان تحلیل کنند. باید روش های سیستماتیکی به کار گرفته شود که بتوان مقادیر بزرگ تری از داده ها را بررسی کرد.

برای مثال، تربینافین (terbinafine) یک داروی خوراکی ضد قارچ بود که در سال 1996 میلادی با نام تجاری لامیفیل (Lamifil) به بازار آمد. اما در عرض سه سال، چندین گزارش از عوارض منفی آن ثبت شد و تا سال 2008، سه نفر به دلیل مسمومیت کبدی حاصل از این دارو جان باختند و 70 نفر نیز بستری شدند. پزشکان دریافتند که متابولیت تربینافین (TBF-A) موجب آسیب دیدن کبد می شود. اما در آن زمان نتوانستند بفهمند که این متابولیت چگونه در بدن فرد تولید می شود. این موضوع نزدیک به یک دهه برای جامعه پزشکی، به عنوان یک راز باقی ماند تا اینکه در سال 2018، نا لی دانگ، دانشجوی دانشگاه واشنگتن، مسیرهای متابولیکی را به یک سیستم هوش مصنوعی وارد کرد و ماشین موفق شد که مسیرهایی را که کبد می تواند تربینافین را به متابولیت تربینافین تبدیل کند، بیابد. با استفاده از این برنامه هوش مصنوعی مشخص شد که ایجاد متابولیت سمی یک فرایند دو مرحله ای است که شناسایی یکی از آنها به روش آزمایشگاهی بسیار دستوار است. اما این کار برای هوش مصنوعی با قابلیت بازشناسی الگو بسیار ساده انجام شد.

در واقع بیش از 450 دارو در 50 سال اخیر به دلیل ایجاد مسمومیت کبدی، مانند اتفاقی که در لامیفیل می افتد، از بازار خارج شده و این اتفاقات موجب شد که سازمان غذا و دارو، سایت Tox21.gov را راه اندازی کند. این وب سایت یک پایگاه داده آنلاین از مولکول ها و سمومی است که آنها در برابر پروتئین های مهم بدن انسان تولید می کنند. محققان با آموزش مدل های هوش مصنوعی با استفاده از این مجموعه داده ها امیدوار به تشخیص سریع تر این موضوع هستند که آیا یک روش درمانی آثار جانبی خطرناکی خواهد داشت یا نه.

سام مایکل، مدیر ارشد اطلاعات مرکز ملی علوم کاربردی پیشرفته که در ساخت پایگاه داده مزبور مشارکت داشته، می گوید: ما در گذشته با این چالش مواجه بودیم که چگونه از پیش، سمی بودن ترکیبات دارویی را پیش بینی کنیم. این دقیقا عکس کاری است که برای غربالگری مولکول های دارو انجام می دهیم. اینجا به دنبال یافتن ترکیبات دارویی نیستیم، بلکه می خواهیم بدانیم که احتمال سمی بودن ترکیبات دارویی چقدر است.

اما هوش مصنوعی، فقط برای کشف راز اسرار قدیمی پزشکی به کار نمی آید؛ بلکه از این فناوری برای طراحی واکسن های بهتر آنفلوانزا نیز استفاده می شود. در سال 2019، محققان دانشگاه فلیندرز استرالیا، با استفاده از هوش مصنوعی یک واکنش معمول آنفلوانزا را آن چنان تقویت کردند که وقتی به بدن تزریق شود، موجب تولید آنتی بادی بیشتری می شود. تیم محققان این دانشگاه به رهبری نیکولای پتروفسکی، ابتدا یک الگوریتم جست جوی هوش مصنوعی به نام Sam طراحی کردند و روش تمییز بین مولکول های موثر و غیر موثر در برابر آنفلوانزا را به آن یاد دادند. این تیم سپس برنامه دومی را آموزش دادند که میلیون ها ترکیب شیمیایی را تولید کند و به Sam برگرداند تا این برنامه تشخیص دهد که کدام ترکیب می تواند موثر باشد. سپس تیم محققان تنها ترکیب های برتر مورد تایید Sam را به صورت آزمایشگاهی تولید کرد. آزمایش این دارو روی حیوانات تایید کرد که این واکسن تقویت شده، از نمونه اولیه موثرتر است. آزمایش های اولیه این دارو در آمریکا نیز آغاز شده و پیش بینی می شود پس از 12 ماه به نتیجه نهایی برسد و اگر چنین شود، واکسن تقویت شده می تواند در یکی دو سال آینده در دسترس عموم قرار بگیرد. به این ترتیب تولید واکسنی که به طور معمول 5 تا 10 سال زمان می برد، با استفاده از هوش مصنوعی به سرعت انجام می شود.

سیستم های یادگیری ماشین می توانند در میان حجم عظیمی از مجموعه داده ها با سرعتی بسیار بیشتر از محققان زیست شناس جست وجو و ترکیبات دقیق را بیابند، اما انسان نیز، حداقل در آینده نزدیک، از فرایند توسعه داروها حذف نخواهد شد. برای مثال، تولید، جمع آوری، ایندکس کردن، مرتب سازی و برچسب زدن داده های مورد نیاز برای آموزش به مدل هوش مصنوعی، کاری است که توسط انسان انجام می شود.

حتی اگر سیستم های یادگیری ماشین، از این هم توانمندتر شوند، همچنان در برابر ورود اطلاعات نادرست یا مغرضانه و دارای سوگیری، آسیب پذیر خواهند بود.

دکتر چارلز فیشر، موسس و مدیر ارشد اجرایی Unlearn.AI می گوید: بسیاری از مجموعه داده هایی که در پزشکی مورد استفاده قرار می گیرد، از جمعیت عمدتا سفید پوستان شمال آمریکا و اروپا به دست آمده است و اگر محققی سیستم های یادگیری ماشین را روی این مجموعه داده ها استفاده کند و روشی درمانی ابداع کند، تضمینی وجود ندارد که این دارو روی جمعیتی با تنوع نژادی بیشتر نیز جواب بدهد.

فیشر برای مقابله با آثار سوء این سوگیری در داده ها، پیشنهاد می دهد که مجموعه داده های بزرگ تر با نرم افزارهای پیشرفته و کامپیوترهای قدرتمندتر مورد استفاده قرار بگیرد.

یکی دیگر از اجزای مهم دیگر، وجود داده های پاک است.

دکتر جیل بکر، مدیر ارشد اجرایی Kebotix، استارتاپی که با استفاده از هوش مصنوعی و روباتیک، به طراحی مواد شیمیایی عجیب و تازه می پردازد، در این رابطه می گوید: ما سه منبع داده داریم. مااین ظرفیت را داریم که داده های خودمان را تولید کنیم، در آزمایشگاه های مصنوعی به تولید داده بپردازیم یا از داده های خارجی استفاده کنیم. این داده های خارجی می تواند از نشریات، حق امتیازها یا سایر همکاران تحقیقاتی شرکت تامین شود. اما صرف نظر از منبع داده، باید زمان زیادی را صرف پاک سازی این داده ها کنیم. 

وی توضیح می دهد: اطمینان از اینکه داده ها دارای متاداده مناسب برای مدل های ما هستند، بسیار اهمیت دارد و این کار بسیار زمان بر و پر هزینه است.

درباره نویسنده

ثبت دیدگاه