وبلاگ

توضیح وبلاگ من

بخش‌بندی اتوماتیک دندان‌ها با استفاده از تصاویر X-ray- قسمت ۵

 
تاریخ: 20-07-00
نویسنده: فاطمه کرمانی

در نوع ساده‌ای از این روش ابتدا به تعداد خوشه‌‌های مورد نیاز نقاطی به‌صورت تصادفی انتخاب می‌شوند[۴۴]. سپس داده‌ها با توجه با میزان نزدیکی (شباهت) به یکی از این خوشه‌ها نسبت داده‌ می‌شوند و به‌این ترتیب خوشه‌های جدیدی حاصل می‌شوند. با تکرار همین روال می‌توان در هر تکرار با میانگین‌گیری از داده‌ها مراکز جدیدی برای آنها محاسبه کرد و دوباره داده‌ها را به خوشه‌های جدید نسبت داد. این روند تا زمانی ادامه پیدا می‌کند که دیگر تغییری در داده‌ها حاصل نشود. تابع زیر به‌عنوان تابع هدف مطرح است.
دانلود پایان نامه - مقاله - پروژه
(۱-۱۶)
که ║║ معیار فاصله بین نقاط و cمرکز خوشه j‌ام است.
الگوریتم نشان داده شده در شکل (۱-۸) الگوریتم پایه برای این روش محسوب می‌شود:
شکل(۱-۸) بلاک دیاگرام الگوریتم K-means
۱-۲-۱۱-راه‌کارهای گذشته برای بخش‌بندی تصاویر دندان
بخش‌بندی دندان‌ها در تصاویر رادیوگرافی دندان مهم‌ترین گام در تشخیص دندان‌ها است. در [۲۱] برای بخش‌بندی تصاویر دندانی روشی ترکیبی با بهره گرفتن از تبدیل موجک[۳۶]، آستانه‌گیری و عملگر‌های مورفولوژیکال[۳۷] معرفی می‌کند. نتیجه بخش‌بندی استخراج ویژگی‌های یک دندان انتخاب شده، از تصویر اصلی ‌است. نتیجه بخش‌بندی توسط الگوریتم ارائه شده را در شکل(۱-۹) می‌توان دید.
الف
ب
شکل(۱-۹) الف) تصویر اصلی ب) تصویر بخش‌بندی شده توسط تبدیل موجک، آستانه‌گیری و عملگر‌های مورفولوژیکال [۲۱]
بخش‌بندی تصاویر خاکستری معمولا با انجام بعضی تبدیلات روی شدت روشنایی پیکسل‌ها انجام می‌شود. بخش‌بندی معمولا پیچیدگی بالایی دارد. در [۲۲] یک الگوریتم جدید برای بخش‌بندی تصاویر دندانی ارائه شده‌است، که از یک تکنیک بیولوژیکی[۳۸] و براساس ازدحام اطلاعات و یک مدل اتوماتای سلولی الهام گرفته شده‌است. این الگوریتم سعی می‌کند پیکسل‌های شبیه به‌هم را با بهره گرفتن از یک تابع حسگر، برای تعیین کردن پیکسل‌های مفیدی که در آن ناحیه قرار دارند مورد استفاده قرار می‌گیرند، پیدا کند. روش ارائه شده در این مقاله تقلیدی از کلونی مورچه‌ها است.
الف
ب
شکل (۱-۱۰) الف) تصویر اصلی ب) تصویر بخش‌بندی شده با بهره گرفتن از یک تکنیک بیولوژیکی[۳۹] و براساس ازدحام اطلاعات و یک مدل اتوماتای سلولی [۲۱]
زمانی‌که تعداد زیادی قربانی ناشناخته در حوادث وجود دارند تشخیص هویت بر‌اساس صفات دندانی بیشتر مورد توجه قرار می‌گیرد [۲۳]. بخش‌بندی دندان‌ها با بهره گرفتن از تصاویر رادیوگرافی یک گام مهم برای به‌دست آوردن یک سیستم خودکار تشخیص هویت قدرتمند است. در این مقاله از آناتومی دندان‌ها، فاصله بین دندان‌ها و زاویه قرار گرفتن آنها، هم‌چنین از فضای بین فک بالا و پایین برای بخش‌بندی استفاده شده‌است. نمونه‌ای از تصویر بخش‌بندی شده در زیر آمده است:

شکل(۱-۱۱) تصویر بخش‌بندی شده با بهره گرفتن از آناتومی دندان‌ها، فاصله بین دندان‌ها و زاویه قرار گرفتن آنها [۲۳]
روش دیگری که برای بخش‌بندی تصاویردندانی توسط رابرت وانات[۴۰] در [۲۴] ارائه شده‌است بر اساس فاصله بین گردن[۴۱] (قسمت میانی که در شکل (۱-۱۲) مشخص ‌شده) دندان‌ها است و نیازی به فاصله زیاد بین دندان‌های مجاورنیست. نتیجه این روش نیز شکل(۱-۱۳) آمده‌است:

شکل(۱-۱۲) در شکل بالا گردن دندان یا Dental neck را نشان می‌دهد که براساس فاصله این قسمت با دندان مجاور بخش‌بندی انجام شده‌است [۲۴]

شکل(۱-۱۳) نمونه‌ای از تصویر بخش‌بندی توسط الگوریتم ارئه شده بر اساس فاصله بین گردن قسمت میانی دندان‌
روش دیگری که در [۲۵] ارائه شده تصاویر دندانی را با بهره گرفتن از لبه‌های فعال برای بخش‌بندی استفاده می‌کند. این روش بر مبنای شدت روشنایی سراسر تصاویر دندانی است که نتایج این روش در تصویر زیر آمده‌است:
شکل(۱-۱۴) بخش‌بندی با بهره گرفتن از لبه‌های فعال (۲۵)
فصل دوم
مواد و روش‌ها
۲-۱-حذف نویز[۴۲]
کاهش نویز تصاویر یکی از مراحل بسیار مهم در اکثر کاربرد‌های پردازش تصویر می‌باشد. هدف در بیشتر روش‌ها و الگوریتم‌های پردازش تصویر حفظ ساختار تصویر، مانند ناپیوستگی‌ها و لبه‌های موجود در آن می‌باشد.
نویز از لحاظ ظاهری آزار دهنده است و به‌علاوه انجام پردازش‌های گوناگون تصویر مثل بخش‌بندی، تشخیص و تفسیر را با مشکل مواجه می‌کند. بنابراین افزایش کیفیت تصویر و حذف نویز‌های ایجاد شده در تصویر یک مرحله اساسی قبل از هر عملیات پردازشی است. اما نکته مهم در طول روند حذف نویز این است که تصویر اصلی و به‌ خصوص جزییات آن تا حد امکان آسیبی نبیند و ساختار تصویر اصلی حفظ شود. بر این اساس روش‌های مختلفی برای حذف نویز مطرح شده‌است.
فیلتر وینر[۴۳] یکی از فیلتر‌های پرکاربرد در پردازش سیگنال و تصویر می‌باشد که در دهه ۱۹۴۰ توسط نوبرت وینر[۴۴] ارائه شد [۲۶]. هدف این فیلتر حذف نویز موجود در سیگنال یا تصویر از طریق مقایسه با منبع بدون نویز سیگنال می‌باشد. فیلتر وینر نگاه آماری به پردازش دارد. این فیلتر یکی از نخستین فیلتر‌های آماری ارائه شده می‌باشد. در این فیلتر فرض بر این است که تصویر و نویز دارای توزیع گوسی با متوسط صفر هستند. فیلتر وینر با هدف کاهش متوسط مربعات خطا، بین تصویر اصلی و تصویر تقریب‌زده شده از تصویر نویزی عمل می‌کند. فیلتر وینر توانایی بالایی در حذف نویز‌های گوسی دارد اما این فیلتر با هدف حداقل کردن مجموع مربعات خطا برای کل تصویر عمل می‌کند. در این قسمت این فیلتر را بررسی می‌کنیم.
فیلتر وینر یک فیلتر خطی تطبیقی به فرم (w(x,y است که به‌صورت زیر به تصویر نویزی (g(x,y اعمال می‌شود [۲۷]:
(۲-۱)
فیلتر وینر یک فیلتر خطی تطبیقی به‌فرم w(x,y) است که به‌صورت زیر به تصویر نویزی g(x,y) اعمال می‌شود:
تصویر بازیابی شده باشد، فیلتر وینر مقدار حداقل مربعات خطا (MSE) را در رابطه زیر حداقل می‌کند.
(۲-۲)
در حالتی که نویز و تصویر از هم مستقل هستند، حل رابطه زیر برای به نتیجه زیر می‌رسد:
(۲-۳)
که در آن طیف توان تصویر اصلی و طیف توان نویز هستند.
اما مشکل این فیلتر آن است که طیف توان تصویر اصلی و نویز مشخص نیست و باید به‌گونه‌ای تقریب زده شود. اگر نویز به‌صورت ناهمبسته (نویز سفید) فرض گردد، می‌توان آن را برابر با واریانس نویز در نظر گرفت. یعنی:
(۲-۴)
پس می‌توان واریانس نویز را از روی تصویر تخمین زد و طیف توان نویز را برابر آن قرار داد. همچنین می‌توان واریانس نویز را به‌عنوان یک متغیر تنظیمی در اختیار کاربر قرار داد.
۲-۲-تبدیل موجک
گرچه تبدیل فوریه[۴۵]، تا اواخر دهه ۱۹۵۰، هسته اصلی پردازش تصویر مبتنی بر تبدیل بود، تبدیل موجک برای فشرده‌سازی، انتقال، و تحلیل بسیاری از تصاویر آسان‌تر است [۲]. برخلاف تبدیل فوریه، موجک‌ها دارای فرکانس متغیر و طول عمر محدودی‌اند. به‌این ترتیب، می‌توانند معادل موسیقایی را برای تصویر فراهم کنند، به‌طوری که نه‌تنها مشخص می‌کنند چه نت‌هایی (یا فرکانس‌هایی) نواخته می‌شوند، بلکه مشخص می‌کنند کی باید نواخته شوند. اما تبدیلات فوریه، فقط اطلاعات نت‌ها و فرکانس‌ها را فراهم می‌کنند؛ اطلاعات موقتی، در فرایند تبدیل از بین می‌روند.
در سال ۱۹۸۷، موجک‌ها به‌عنوان مبنایی برای روش قدرتمند جدید در تحلیل و پردازش سیگنال، به‌نام تئوری چنددقتی[۴۶] محسوب شد [۲]. تئوری چنددقتی، تکنیک‌هایی را از نظام‌های مختلف دربر می‌گیرد و آنها را یک‌نواخت می کند. تئوری چنددقتی با نمایش و تحلیل سیگنال‌ها (یا تصاویر) در بیش از یک دقت سروکار دارد. ویژگی‌هایی که ممکن است در یک دقت تشخیص داده نشوند، ممکن است به‌آسانی در دقت دیگر تشخیص داده شوند. گرچه علاقه جامعه تصویر‌برداری به تحلیل چنددقتی تا اواخر دهه ۱۹۸۰ محدود بود، ولی اکنون مقالات و کتاب‌های متعددی به‌این موضوع پرداخته‌اند.
وقتی به تصاویر نگاه می‌کنیم، مناطق متصلی با متن یا سطوح شدت روشنایی مشابه را خواهیم دید که ترکیب می‌شوند تا اشیا را ایجاد کنند. اگر اندازه اشیا کوچک باشد یا کنتراست آنها پایین باشد، آنها را در دقت بالا بررسی می‌کنیم؛ اگر اندازه آنها بزرگ یا شدت روشنایی آنها بالا باشد، تنها چیزی که نیاز دارد، نگاه کلی است. اگر هم‌زمان اشیای کوچک و بزرگ یا اشیایی با کنتراست پایین و بالا وجود داشته باشند، خوب است آنها را در چندین دقت مطالعه کنیم. این کار، انگیزه اصلی پردازش چنددقتی است.
از دیدگاه ریاضی، تصاویر، آرایه‌های دوبعدی از مقادیر شدت روشنایی، با تغییر در آمارهای محلی هستند که ناشی از ترکیبات مختلف ویژگی‌های ناگهانی، مثل لبه‌ها و مقایسه مناطق همگن هستند. هیستوگرام محلی می‌تواند به‌طور چشم‌گیری از یک بخش تصویر به بخش دیگر آن تغییر کند، به‌طوری که مدل‌سازی آماری روی کل تصویر را کاری دشوار یا غیرممکن می‌سازد.


فرم در حال بارگذاری ...

« اثر کاهش رطوبت داخلی بذر بر کیفیت جوانه‌زنی بذر بلوط ایرانی، مازودار و ویول- قسمت ۲ادبیات زنانه در آثار (میرزاده عشقی، ایرج میرزا، عارف قزوینی)- قسمت ۳۶ »
 
مداحی های محرم