یک روش مبتنی بر شبکه عصبی عمیق بهینه شده با الگوریتم هافمن و الگوریتم¬های فرا ابتکاری برای فشرده¬سازی و بازسازی تصویر پزشکی
الموضوعات :محمد حسین خلیفه 1 , مهدی تقی زاده 2 , محمدمهدی قنبریان 3 , جاسم جمالی 4
1 - گروه مهندسی برق، واحد کازرون، دانشگاه آزاد اسلامی، کازرون، ایران
2 - هیات علمی
3 - کارشناس ارشد - دانشگاه آزاد اسلامی، واحد کازرون
4 - دانشگاه آزاد کازرون
الکلمات المفتاحية: فشرده¬سازی تصویر, بازسازی تصویر, شبکه عصبی عمیق, رمزنگاری هافمن, الگوریتم¬های فرا ابتکاری گرگ خاکستری ,
ملخص المقالة :
این تحقیق از دو رویکرد مختلف برای فشردهسازی عکسهای پزشکی برای اهداف بلندمدت استفاده میکند. در روش اول، تصاویر با استفاده از رمز هافمن فشرده شده و سپس با استفاده از مدلسازی سلسله مراتبی بر اساس طبقهبندی طراحی شده توسط شبکه عصبی سادهسازی میشوند. در روش دوم از یک استراتژی پیشبینی مبتنی بر آموزش شبکه عصبی عمیق استفاده شده است. این روش از یک شبکه عصبی آموزشدیده برای استنتاج مکانهای پیکسلهای منفرد استفاده میکند و از این رو، مقدار دادههای مورد نیاز برای توصیف یک تصویر را کاهش میدهد. رمزگذاری فشرده¬سازی هافمن روی داده¬های باقی¬مانده استفاده می¬شود. یک روش فیلتر فضایی پیشرفته برای رمزگشایی دادههای تصویر استفاده میشود و سپس الگوریتمهای فراابتکاری بهینهسازی اسب وحشی و بهینهسازی گرگ خاکستری برای تولید یک تصویر بازسازیشده استفاده میشوند. رویکردهای پیشنهادی امکان سادهسازی تصویر را فراهم میکنند که منجر به رمزگشایی سریعتر شده است. مدولاسیون شاخص تشابه ساختاری، زمان و نسبت سیگنال به نویز پیک به ترتیب به طور متوسط 2، 1/30 و 15/15 درصد نسبت به سایر روش¬ها بهبود یافته است. الگوریتمهای پیشنهادی میتوانند عکسهای پزشکی را با کیفیت بسیار بالایی در مقایسه با روشهای مبتنی بر یادگیری عمیق فعلی فشرده کنند.
[1] M.-A. Moreno-Ibarra, Y. Villuendas-Rey, M. D. Lytras, C. Yáñez-Márquez, and J.-C. Salgado-Ramírez, "Classification of diseases
using machine learning algorithms: A comparative study," Mathematics, vol. 9, p. 1817, 2021. [2] H. P. Chan, L. M. Hadjiiski, and R. K. Samala, "Computer‐aided diagnosis in the era of deep learning," Medical physics, vol. 47, pp. e218-e227, 2020
[3] W. Mbarki, M. Bouchouicha, S. Frizzi, F. Tshibasu, L. B. Farhat, and M. Sayadi, "Lumbar spine discs classification based on deep
convolutional neural networks using axial view MRI," Interdisciplinary Neurosurgery, vol. 22, p. 100837, 2020.
[4] J. Martinez-Mas, A. Bueno-Crespo, R. Martinez-Espana, M. Remezal-Solano, A. Ortiz-Gonzalez, S. Ortiz-Reina, et al., "Classifying Papanicolaou cervical smears through a cell merger approach by deep learning technique," Expert Systems with Applications, vol. 160, p. 113707, 2020.
[5] H. Zhou, K. Wang, and J. Tian, "Online transfer learning for differential diagnosis of benign and malignant thyroid nodules with
ultrasound images," IEEE Transactions on Biomedical Engineering, vol. 67, pp. 2773-2780, 2020. [6] F. Liu, M. Hernandez-Cabronero, V. Sanchez, M. W. Marcellin, and A. Bilgin, "The current role of image compression standards in
medical imaging," Information, vol. 8, p. 131, 2017. [7] J. Huang, S. Zhang, and D. Metaxas, "Efficient MR image reconstruction for compressed MR imaging," Medical Image Analysis,
vol. 15, pp. 670-679, 2011. [8] J. C. Salgado-Ramírez, J. M. Vianney Kinani, E. A. Cendejas-Castro, A. J. Rosales-Silva, E. Ramos-Díaz, and J. L. Díaz-de-Léon-
Santiago, "New model of heteroasociative min memory robust to acquisition noise," Mathematics, vol. 10, p. 148, 2022. [9] A. Benou, R. Veksler, A. Friedman, and T. R. Raviv, "Ensemble of expert deep neural networks for spatio-temporal denoising of
contrast-enhanced MRI sequences," Medical image analysis, vol. 42, pp. 145-159, 2017. [10] K.-H. Thung, P.-T. Yap, E. Adeli, S.-W. Lee, D. Shen, and A. s. D. N. Initiative, "Conversion and time-to-conversion predictions of mild cognitive impairment using low-rank affinity pursuit denoising and matrix completion," Medical image analysis, vol. 45, pp. 68-
82, 2018. [11] E. Agustsson, M. Tschannen, F. Mentzer, R. Timofte, and L. V. Gool, "Generative adversarial networks for extreme learned image
compression," in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019, pp. 221-231. [12] M. Li, W. Zuo, S. Gu, D. Zhao, and D. Zhang, "Learning convolutional networks for content-weighted image compression," in
Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp. 3214-3223. [13] N. Johnston, D. Vincent, D. Minnen, M. Covell, S. Singh, T. Chinen, et al., "Improved lossy image compression with priming and spatially adaptive bit rates for recurrent networks," in Proceedings of the IEEE conference on computer vision and pattern
recognition, 2018, pp. 4385-4393. [14]
S. Santurkar, D. Budden, and N. Shavit, "Generative compression," in 2018 Picture Coding Symposium (PCS), 2018, pp. 258-262. [15] E. Agustsson, M. Tschannen, F. Mentzer, R. Timofte, and L. V. Gool, "Generative adversarial networks for extreme learned image
compression," in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019, pp. 221-231. [16] S. M. Belgaonkar and V. Singh, "Image compression and reconstruction in compressive sensing paradigm," Global Transitions
Proceedings, vol. 3, pp. 220-224, 2022. [17] Y. Pourasad and F. Cavallaro, "A novel image processing approach to enhancement and compression of X-ray images,"
International Journal of Environmental Research and Public Health, vol. 18, p. 6724, 2021. [18] J. Luo, J. Wu, S. Zhao, L. Wang, and T. Xu, "Lossless compression for hyperspectral image using deep recurrent neural networks,"
International Journal of Machine Learning and Cybernetics, vol. 10, pp. 2619-2629, 2019. [19] H. Zhang, F. Cricri, H. R. Tavakoli, N. Zou, E. Aksu, and M. M. Hannuksela, "Lossless image compression using a multi-scale
progressive statistical model," in Proceedings of the Asian Conference on Computer Vision, 2020. [20] D. Mishra, S. K. Singh, and R. K. Singh, "Lossy medical image compression using residual learning-based dual autoencoder model," in 2020 IEEE 7th Uttar Pradesh section international conference on electrical, electronics and computer engineering (UPCON),
2020, pp. 1-5. [21] J. Azar, A. Makhoul, R. Couturier, and J. Demerjian, "Robust IoT time series classification with data compression and deep
learning," Neurocomputing, vol. 398, pp. 222-234, 2020. [22] Z. Cheng, H. Sun, M. Takeuchi, and J. Katto, "Learned lossless image compression with a hyperprior and discretized gaussian mixture likelihoods," in ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp.
2158-2162. [23] Z. Ma, H. Zhu, Z. He, Y. Lu, and F. Song, "Deep Lossless Compression Algorithm Based on Arithmetic Coding for Power Data,"
Sensors, vol. 22, p. 5331, 2022. [24] H. Fu, F. Liang, B. Lei, N. Bian, Q. Zhang, M. Akbari, et al., "Improved hybrid layered image compression using deep learning and
traditional codecs," Signal Processing: Image Communication, vol. 82, p. 115774, 2020. [25] H. Rhee, Y. I. Jang, S. Kim, and N. I. Cho, "Lossless image compression by joint prediction of pixel and context using duplex
neural networks," IEEE Access, vol. 9, pp. 86632-86645, 2021. [26] T. Malach, S. Greenberg, and M. Haiut, "Hardware-based real-time deep neural network lossless weights compression," IEEE
Access, vol. 8, pp. 205051-205060, 2020. [27] O. H. Nagoor, J. Whittle, J. Deng, B. Mora, and M. W. Jones, "Lossless compression for volumetric medical images using deep
neural network with local sampling," in 2020 IEEE International Conference on Image Processing (ICIP), 2020, pp. 2815-2819. [28] G. Xin and P. Fan, "A lossless compression method for multi-component medical images based on big data mining," Scientific
Reports, vol. 11, p. 12372, 2021. [29] A. Nasif, Z. A. Othman, and N. S. Sani, "The deep learning solutions on lossless compression methods for alleviating data load
on IoT nodes in smart cities," Sensors, vol. 21, p. 4223, 2021. [30] O. H. Nagoor, J. Whittle, J. Deng, B. Mora, and M. W. Jones, "Sampling strategies for learning-based 3D medical image
compression," Machine Learning with Applications, vol. 8, p. 100273, 2022. [31] S. Mirjalili, S. M. Mirjalili, A. Lewis, and G. W. Optimizer, "Advances in engineering software," Renewable and Sustainable Energy
Reviews, vol. 69, pp. 46-61, 2014. [32] I. Naruei and F. Keynia, "Wild horse optimizer: A new meta-heuristic algorithm for solving engineering optimization problems,"
Engineering with computers, vol. 38, pp. 3025-3056, 2022. [33] D. A. Huffman, "A method for the construction of minimum-redundancy codes," Proceedings of the IRE, vol. 40, pp. 1098-1101,
1952. [34]
B. O’Hanen and M. Wisan, "JPEG Compression'," ed: Citeseer, 2005. [35] P. Kaur, "Compression using fractional Fourier transform," a thesis submitted in the partial fulfillment of requirement for the
award of the degree of master of engineering in electronics and communicationDeemed University, 2010. [36] A. Odat, M. Otair, and M. Al-Khalayleh, "Comparative study between LM-DH technique and Huffman coding," International
Journal of Applied Engineering Research, vol. 10, pp. 36004-36011, 2015. [37]
J. Schmidhuber, "Deep learning in neural networks: An overview," Neural networks, vol. 61, pp. 85-117, 2015. [38] J.-T. Chien, "Chapter 7 - Deep Neural Network," in Source Separation and Machine Learning, J.-T. Chien, Ed., ed: Academic Press,
2019, pp. 259-320. [39] C. Cardenas, A. Mohamed, G. Sharp, M. Gooding, H. Veeraraghavan, and J. Yang, "Data from AAPM RT-MAC grand challenge
2019," The Cancer Imaging Archive, 2019. [40] C. E. Cardenas, A. S. Mohamed, J. Yang, M. Gooding, H. Veeraraghavan, J. Kalpathy‐Cramer, et al., "Head and neck cancer patient images for determining auto‐segmentation accuracy in T2‐weighted magnetic resonance imaging through expert manual
segmentations," Medical physics, vol. 47, pp. 2317-2322, 2020. [41] S. G. Jafarzadeh, M. N. A. Rahman, and D. A. Wahab, "Optimization of supply chain management based on response surface
methodology: A case study of iran khodro," World Applied Sciences Journal, vol. 20, pp. 620-627, 2012. [42] A. Deshpande, V. V. Estrela, and N. Razmjooy, Computational Intelligence Methods for Super-Resolution in Image Processing
Applications: Springer, 2021. [43] A. G. M. Strollo, E. Napoli, D. De Caro, N. Petra, and G. Di Meo, "Comparison and extension of approximate 4-2 compressors for
low-power approximate multipliers," IEEE Transactions on Circuits and Systems I: Regular Papers, vol. 67, pp. 3021-3034, 2020. [44] H. E.-d. H. Ahmed, H. M. Kalash, and O. S. Farag Allah, "Encryption quality analysis of the RC5 block cipher algorithm for digital
images," Optical Engineering, vol. 45, pp. 107003-107003-7, 2006. [45] S. M. Belgaonkar and V. Singh, "Image compression and reconstruction in compressive sensing paradigm," Global Transitions
Proceedings, vol. 3, pp. 220-224, 2022. [46] W. Al-Haidri, I. Matveev, M. A. Al-Antari, and M. Zubkov, "A Deep Learning Framework for Cardiac MR Under-Sampled Image
Reconstruction with a Hybrid Spatial and k-Space Loss Function," Diagnostics, vol. 13, p. 1120, 2023.
یک روش مبتنی بر شبکه عصبی عمیق بهینه شده با الگوریتم هافمن و الگوریتمهای فرا ابتکاری برای فشردهسازی و بازسازی تصویر پزشکی
محمد حسین خلیفه1 ، مهدی تقیزاده21، محمد مهدی قنبریان3، جاسم جمالی4
1- گروه مهندسی برق، واحد کازرون، دانشگاه آزاد اسلامی، کازرون، ایران
2- گروه مهندسی برق، واحد کازرون، دانشگاه آزاد اسلامی، کازرون، ایران
3- گروه مهندسی برق، واحد کازرون، دانشگاه آزاد اسلامی، کازرون، ایران
4- گروه مهندسی برق، واحد کازرون، دانشگاه آزاد اسلامی، کازرون، ایران
jasem.jamali@iau.ac.ir
چکیده: این تحقیق از دو رویکرد مختلف برای فشردهسازی عکسهای پزشکی برای اهداف بلندمدت استفاده میکند. در روش اول، تصاویر با استفاده از رمز هافمن فشرده شده و سپس با استفاده از مدلسازی سلسله مراتبی بر اساس طبقهبندی طراحی شده توسط شبکه عصبی سادهسازی میشوند. در روش دوم از یک استراتژی پیشبینی مبتنی بر آموزش شبکه عصبی عمیق استفاده شده است. این روش از یک شبکه عصبی آموزشدیده برای استنتاج مکانهای پیکسلهای منفرد استفاده میکند و از این رو، مقدار دادههای مورد نیاز برای توصیف یک تصویر را کاهش میدهد. رمزگذاری فشردهسازی هافمن روی دادههای باقیمانده استفاده میشود. یک روش فیلتر فضایی پیشرفته برای رمزگشایی دادههای تصویر استفاده میشود و سپس الگوریتمهای فراابتکاری بهینهسازی اسب وحشی و بهینهسازی گرگ خاکستری برای تولید یک تصویر بازسازیشده استفاده میشوند. رویکردهای پیشنهادی امکان سادهسازی تصویر را فراهم میکنند که منجر به رمزگشایی سریعتر شده است. مدولاسیون شاخص تشابه ساختاری، زمان و نسبت سیگنال به نویز پیک به ترتیب به طور متوسط 2، 1/30 و 15/15 درصد نسبت به سایر روشها بهبود یافته است. الگوریتمهای پیشنهادی میتوانند عکسهای پزشکی را با کیفیت بسیار بالایی در مقایسه با روشهای مبتنی بر یادگیری عمیق فعلی فشرده کنند.
واژه های کلیدی: فشردهسازی تصویر، بازسازی تصویر، شبکه عصبی عمیق، رمزنگاری هافمن، الگوریتمهای فرا ابتکاری گرگ خاکستری
A method based on deep neural network optimized with Huffman algorithm and meta-heuristic algorithms for medical image compression and reconstruction
Mohammad Hossein Khalifeh1, Mehdi Taghizadeh2*, Mohammad Mehdi Ghanbarian3, Jasem Jamali4
1 Department of Electrical Engineering, Kazerun Branch, Islamic Azad University, Kazerun, Iran
2 Department of Electrical Engineering, Kazerun Branch, Islamic Azad University, Kazerun, Iran
3 Department of Electrical Engineering, Kazerun Branch, Islamic Azad University, Kazerun, Iran
4 Department of Electrical Engineering, Kazerun Branch, Islamic Azad University, Kazerun, Iran
jasem.jamali@iau.ac.ir
Abstract:
This research makes use of two different approaches to compress medical images for long-term purposes. In the first method, images are compressed using the Huffman cipher and then simplified using a hierarchical modeling based on a neural network-designed categorization. A prediction strategy based on deep neural network training is employed in the second method. This technique uses a trained neural network to infer the locations of individual pixels, hence reducing the amount of data required to describe a picture. Huffman compression encryption is used on the leftover data. An enhanced spatial filtering technique is used to decode the picture data, and the wild horse optimization and gray wolf optimization meta-heuristic algorithms are then used to produce a rebuilt image. Without compromising compression efficiency, this allows for a more realistic application of the suggested solutions in non-deterministic contexts. The suggested approaches allow for picture simplification, which has resulted in faster decoding. Structural similarity index modulation, time and peak signal-to-noise ratio have been improved by an average of 2, 30.1 and 15.15%, respectively. The suggested algorithms were able to compress medical photos with very high quality level, as compared to the current deep learning-based methods.
Keywords: Medical image compression, Image reconstruction, Deep Neural Network, Huffman encryption, Gray Wolf Optimization Algorithm.
DOI: 00.00000/0000 |
| نوع مقاله: پژوهشی |
تاریخ چاپ مقاله: 27/9/1402 | تاریخ پذیرش مقاله: 29/8/1402 | تاریخ ارسال مقاله: 05/06/1402 |
[1] * نویسندهی مسئول
1- مقدمه
استفاده از تصاویر برای انسان در تمام جنبههای زندگی مفید بوده است. به عنوان مثال، نظارت بر تصاویر پزشکی بسیار مهم است زیرا به متخصصان مراقبتهای بهداشتی اطلاعاتی را برای کمک به بیماران با هدف بهبود کیفیت زندگی ارائه میدهد. امروزه با توجه به حجم زیاد تصاویر پزشکی و ضرورت بایگانی و انتقال آنها در شبکههای اینترنت اشیا پزشکی1IOMT، فشردهسازی این تصاویر ضروری به نظر میرسد. بسیاری از محققان یادگیری ماشین و یادگیری عمیق تصمیمات خود را بر اساس پایگاههای اطلاعاتی تصویری و انواع دیگر پایگاههای داده قرار میدهند [1-6].
فشردهسازی تصاویر پزشکی در برخی از کاربردها مانند طرح ذخیرهسازی اطلاعات بیمار و سیستمهای انتقال در IOMT استفاده میشود. روشهای فشردهسازی بدون اتلاف، تصاویر را بدون از بین بردن هیچ اطلاعاتی فشرده میکنند اما نسبت فشردهسازی پایین دارند و روشهای فشردهسازی همراه با اتلاف با نسبت فشردهسازی بالا اما با اتلاف اندک دادهها، میتوانند فشرده شوند. استفاده از روشهای بدون اتلاف در تصاویر پزشکی، مزیت کافی را در انتقال و ذخیرهسازی ارائه نمیدهند و روشهای پراتلاف، دادههای حیاتی مورد نیاز برای تشخیص را از دست میدهند. بنابراین ارائه یک رویکرد همه جانبه برای افزایش نسبت فشردهسازی و کاهش اتلاف اطلاعات به منظور افزایش شباهت تصاویر از چالشهای مهم در حیطه فشردهسازی تصاویر میباشد. در تشخیص بیماری، تصویر پزشکی نقش مهمی ایفا میکند. تصاویر پزشکی شامل اطلاعاتی درباره بدن انسان هستند که برای اهداف متفاوت مانند طرحهای جراحی و تشخیص بیماری استفاده میشوند. تصاویر پزشکی دیجیتال مانند اشعه X، تصویربرداری رزونانس مغناطیسی (MRI)، سونوگرافی، توموگرافی کامپیوتری (CT) به طور گسترده در تشخیص بیماری استفاده میشوند [7]. فشردهسازی بدون تلفات آن بسیار حیاتی است، که مستقیماً نیاز به فضای ذخیرهسازی محلی و پهنای باند ارتباطی سیستمهای پزشکی از راه دور را تعیین میکند تا به تشخیص و درمان بیماران کمک کند. دو خاصیت، بدون تلفات و شباهت تصاویر، مربوط به تصاویر پزشکی وجود دارد. نحوه استفاده از این دو ویژگی برای کاهش اطلاعات مورد نیاز برای نمایش یک تصویر، نکته کلیدی فشردهسازی است. عمدتاً دو نگرانی مهم در استفاده از تصویربرداری پزشکی وجود دارد. اولین نگرانی این است که تصاویر در هنگام انتقال از طریق رسانههایی مانند IOMT فضای زیادی را از دستگاهها اشغال میکنند و برای کارهای زمان واقعی دچار مشکل میشوند، بنابراین فشردهسازی آنها ضروری است. از سویی دیگر، خطر از دست دادن اطلاعات مهم وجود دارد و در عرصه پزشکی، از دست دادن این نوع اطلاعات توسط قانون محدود شده است [6]. موضوع دوم نحوه حذف نویز در تصاویر است، موضوعی که الهامبخش تحقیقات بسیاری بوده است [8-10] و این امر ممکن است در مساله فشردهسازی اتفاق بیافتد و نیاز به بازسازی تصویر از اهمیت بالایی برخوردار است.
در حال حاضر، شبکه عصبی بازگشتی2 (RNN) و سایر روشها عملکرد بسیار خوبی در زمینه ترجمه ماشینی نشان دادهاند. RNNهای عمیق در عمل ثابت شدهاند که در وظایف پردازش زبان طبیعی، مانند بیان کلمهبرداری، بیانیه مشروعیت، و برچسبگذاری بخشی از گفتار کاملاً موفق هستند. بنابراین، برای استفاده از فشردهسازی بدون تلفات فراطیفی، روش جدیدی برای فشردهسازی تصویر فراطیفی بر اساس شبکههای عصبی چرخهای عمیق در این مقاله پیشنهاد شده است. اخیراً با توسعه سریع نظریه یادگیری عمیق، به ویژه پس از کاربردهای موفق شبکههای عصبی عمیق (DNN) در بینایی کامپیوتر، یادگیری عمیق در بسیاری از زمینهها از جمله فشردهسازی تصویر به کار گرفته شده است. برخی از روشهای مبتنی بر یادگیری عمیق از کدکهای تصویر سنتی مانند JPEG، JPEG2000 و کد تصویر BPG مبتنی برH.265/HEVC [11-15] بهتر عمل کردهاند و پتانسیلهای عالی آن را نشان میدهند. این مقاله دو الگوریتم جدید فشردهسازی تصویر پزشکی بسیار کم تلفات با کمک شبکههای عصبی عمیق را ارائه کرده است. الگوریتمهای ترکیبی پیشنهادی به گونهای طراحی شده است که در صورت وجود اطلاعات زیاد، فشردهسازی آن بیشتر میشود. بنابراین، اگر تصاویر حاوی اطلاعات زیادی مانند تصاویر رنگی یا سهبعدی باشند، فشردهسازی بیشتر از فرمتهای تجاری مانند JPEG، PNG و TIFF خواهد بود. مزیت دیگر الگوریتم، اجرای آن میباشد که ساده و بسیار پر سرعت است. این مزایا در بخشهای مختلف نتایج قابل نمایش است. این الگوریتمها مشکلاتی را با فشرده سازی تصاویر 8 بیتی در مقیاس خاکستری برای تصاویر MRI و CT برطرف میکند. مشکلی که در این مقاله باید حل شود، یافتن مدل جدیدی از فشردهسازی با تلفات بسیار پایین است که بر فرمتهای گرافیکی TIFF و JPG که به طور گسترده در فشردهسازی تصویر پزشکی استفاده میشوند، غلبه کند. نوآوریهای پیشنهادی این کار، همانطور که در بخش نتایج نشان داده خواهد شد، روشهای ترکیبی فشردهسازی بازسازی شده با الگوربتمهای فراابتکاری است که میتواند برای فشردهسازی تصویر پزشکی بدون تلفات در نظر گرفته شود. به طور خلاصه، در این مقاله رویکرد فشردهسازی و بازسازی جدید بر اساس روشهای ترکیبی شبکه عصبی عمیق با رمزنگاری هافمن برای فشردهسازی بدون تلفات تصاویر پزشکی ارائه خواهد شد و سپس با کمک الگوریتمهای فراابتکاری WHO و GWO، بازسازی تصاویر رمزگشایی شده انجام شده تا از لحاظ شباهت و نزدیکی به تصویر اصلی بالاترین کیفیت را داشته باشد. سهم اصلی این مقاله در طراحی فشردهسازی و بازسازی پیشنهادی تصاویر پزشکی به شرح ذیل است:
· ارائه رویکردهای ترکیبی فشردهسازی اتصال شبکه عصبی عمیق DNN با الگوریتم رمزنگاری هافمن.
· مدلسازی یک سیستم غیرخطی پلکانی با درجههای مختلف برای تصاویر پزشکی با کمک شبکه عصبی عمیق.
· بهرهگیری از یک سیستم پیشبین برای پیکسلهای تصویر اصلی با کمک شبکه عصبی عمیق برای تخمین پیکسلهای دیگر و کاهش اندازه پیکسلهای تصویر برای انتقال یا ذخیرهسازی.
· بازسازی تصاویر رمزگشایی شده با کمک فیلترینگ مکانی بهینه شده با الگوریتمهای فراابتکاری.
سازماندهی مقاله به شرح زیر است. در بخش 2، پیشینه کارهای مرتبط و مفاهیم استفاده شده به اختصار بررسی میشود. چارچوب و جزئیات روش فشردهسازی تصویر ترکیبی بهبود یافته در بخش 3 معرفی شده است. در بخش 4، ما عملکرد روش خود را با مقایسه با کدک های مختلف با استفاده از مجموعه دادههای مختلف از تصاویر CT و MRI ارزیابی میکنیم. نتیجه گیری و بحث در بخش 5 آورده شده است.
2- کارهای مروری
در این بخش، کارهای مربوط به فشردهسازی تصویر پزشکی شرح داده میشود. برای اهداف این مقاله، کاربرد فشردهسازی تصاویر پزشکی با اتلاف بسیارکم یا بدون اتلاف ارائه میشود. اهمیت تاکید بر تصاویر پزشکی، تاثیر و معنای مهم آن برای انسان است. علاوه بر این، استفاده از الگوریتمهای فشردهسازی -مانند الگوریتم پیشنهادی- به دلیل حجم اطلاعات موجود در آن و اهمیت کاهش تلفات اطلاعات برای ذخیره و انتقال تصاویر پزشکی، بسیار مفید است.
دستاوردهای اخیر مدلهای پیشبینی توالی در حوزههای متعدد، از جمله فشردهسازی، پتانسیل زیادی برای کدکهای مبتنی بر یادگیری جدید فراهم میکند. در چنین مدلهایی، شکل و اندازه دنباله ورودی نقش مهمی در یادگیری تابع نگاشت توزیع داده به خروجی هدف دارد. مقاله [16] پیکربندیهای ورودی و طرحهای نمونهبرداری متعددی را برای یک مدل پیشبینی توالی چند به یک، بهویژه برای فشردهسازی تصاویر پزشکی سهبعدی (عمق ۱۶ بیت) بدون تلفات بررسی میکند. هدف اصلی تعیین روش بهینه برای فعال کردن مدل پیشنهادی حافظه کوتاهمدت3 (LSTM) برای دستیابی به نسبت تراکم بالا و عملکرد رمزگذاری، رمزگشایی سریع است. مدلهای LSTM این مقاله با اعتبارسنجی متقاطع 4 برابری بر روی 12 مجموعه داده MRI و CT با وضوح بالا آموزش داده میشوند، در حالی که نسبت تراکم و زمان اجرا مدل را اندازهگیری میکنند. چندین پیکربندی از توالیها ارزیابی شدهاند، و نتایج آن نشان میدهد که نمونهبرداری هرمی شکل بهترین مبادله بین عملکرد و نسبت تراکم (تا 3×) را نشان میدهد.
در مقاله [17] از دو روش بدون اتلاف و با اتلاف برای فشردهسازی تصاویر پزشکی استفاده شد که کیفیت تصویر را حفظ میکند. علاوه بر این، برخی از روشهای تقویتکننده برای افزایش کیفیت یک تصویر فشرده استفاده شد. این روشها مورد بررسی قرار گرفتند و چندین نتیجه مقایسه نشان داده شده است. تجزیه و تحلیل دقیق معیارهای اندازهگیری کارایی بهتری را نسبت به سایر روشهای پردازش تصویر نشان میدهد. مقاله [18] به بررسی استفاده از یادگیری عمیق برای فشردهسازی بدون تلفات تصاویر فراطیفی میپردازد. با توجه به ناکافی بودن روش مدولاسیون کد پالس دیفرانسیل4 (DPCM) برای پیشبینی اطلاعات باند طیفی، روش پیشنهادی به نام C-DPCM-RNN، از یک شبکه عصبی بازگشتی عمیق (RNN) برای بهبود روش سنتی DPCM و بهبود تعمیم استفاده میکند. نتایج این روش عملکرد خوبی را برای کیفیت تصاویر ضمن افزایش ضریب فشردهسازی نسبت به سایر روشها نشان میدهد. اما به دلیل افزایش پیچیدگی طراحی پیشنهادی از سرعت رمزنگاری و رمزگشایی بالایی برخوردار نیست.
با توسعه سریع روشهای یادگیری عمیق، از شبکههای عصبی عمیق در این زمینه برای دستیابی به نرخ فشردهسازی بالاتر استفاده شده است. روشهای مبتنی بر مدلهای آماری خودرگرسیون پیکسلی، عملکرد خوبی را نشان دادهاند. با این حال، روش پردازش متوالی مانع از استفاده از این روشها در عمل میشود. اخیراً مدلهای خودرگرسیون چند مقیاسی برای رفع این محدودیت پیشنهاد شدهاند. رویکردهای چند مقیاسی میتوانند از سیستمهای محاسباتی موازی به طور موثر استفاده کنند و سیستمهای عملی بسازند. با این وجود، این رویکردها عملکرد فشردهسازی را در ازای سرعت قربانی میکنند. در [19]، یک مدل آماری پیشرونده چند مقیاسی پیشنهاد شده که از رویکرد پیکسلی و رویکرد چند مقیاسی بهره میبرد و یک مکانیسم انعطاف پذیر ایجاد شده که در آن ترتیب پردازش پیکسلها را میتوان به راحتی تنظیم کرد. روش پیشنهادی از روشهای فشردهسازی تصویر بدون تلفات پیشرفته در دو مجموعه داده معیار بزرگ با یک حاشیه قابلتوجه بدون کاهش چشمگیر سرعت استنتاج بهتر عمل میکند.
مقاله [20]، یک چارچوب دو مرحلهای مبتنی بر رمزگذار خودکار کمپرسور-کمپرسور برای فشردهسازی تکههای تصویر سلولهای RBC مالاریا پیشنهاد میکند. شبکه رمزگذار خودکار دوگانه مبتنی بر باقیمانده پیشنهادی برای استخراج ویژگیهای منحصر به فرد آموزش داده شده است که سپس برای بازسازی تصویر اصلی از طریق ماژول دیکمپرسور استفاده میشود. دو نمایش فضای پنهان (اول برای تصویر اصلی و دوم برای تصویر باقیمانده) برای بازسازی تصویر اصلی نهایی استفاده می شود. Color-SSIM به طور انحصاری برای بررسی کیفیت قسمت کرومینانس تصاویر سلولی پس از رفع فشردهسازی استفاده شده است. نتایج تجربی نشان میدهد که کار پیشنهادی به ترتیب در PSNR، Color SSIM و MS-SSIM تقریباً 35٪، 10٪ و 5٪ از سایر روشهای فشردهسازی مرتبط با شبکه عصبی برای تصاویر پزشکی بهتر عمل میکند. این الگوریتم به ترتیب بهبود قابل توجهی در صرفهجویی در بیتهای 76، 78، 75 و 74 درصد نسبت به JPEG-LS، JP2K-LM، CALIC و رویکرد شبکه عصبی اخیر نشان میدهد. در [21] تاثیر روشهای فشردهسازی با تلفات بر وظیفه طبقهبندی سریهای زمانی با استفاده از شبکههای عصبی عمیق بررسی شد. علاوه بر این، این مقاله یک رویکرد فشردهسازی کارآمد را برای سریهای زمانی تک متغیره و چند متغیره پیشنهاد میکند که اجرای بلند کردن تبدیل موجک گسسته را با یک کمپرسور محدود به خطا، یعنی Squeeze (SZ) ترکیب میکند تا به یک مبادله بهینه بین فشردهسازی داده و کیفیت داده ارائه دهد. کدکهای تصویر سنتی مانند WebP، JPEG2000، FLIF معمولاً از حالت بدون اتلاف پشتیبانی میکنند. اخیراً رویکردهای مبتنی بر یادگیری عمیق، پتانسیل خود را در این مرحله نشان دادهاند. HyperPrior یک روش موثر برای فشردهسازی تصویر با اتلاف پیشنهاد شده است.
نویسندگان [22] پیشینی را از مدل با اتلاف به فشردهسازی بدون تلفات تعمیم میدهند و یک اصطلاح هنجار L2 را در تابع اتلاف برای سرعت بخشیدن به روند تمرین پیشنهاد میکنند. علاوه بر این، در این مقاله مدلهای پارامتری متفاوتی برای کدهای پنهان بررسی شده و پیشنهاد میشود از احتمالات مخلوط گاوسی برای دستیابی به مدلهای بافت تطبیقی و انعطافپذیر استفاده شود. نتایج تجربی تأیید میکند که روش پیشنهادی میتواند از فشردهسازی بدون تلفات مبتنی بر یادگیری عمیق موجود بهتر عمل کند و همچنین از JPEG2000 و WebP برای تصاویر JPG بهتر عمل کند. یک الگوریتم فشردهسازی عمیق بدون تلفات کارآمد در [23] پیشنهاد شد که از کدگذاری حسابی برای تعیین کمیت خروجی شبکه استفاده میکند. این طرح اثرات آموزشی حافظه کوتاهمدت دو جهته (Bi-LSTM) و انتقال دهندهها را بر روی دادههای توان سطح دقیقهای که در حوزه زمان فرکانس کم نیستند، مقایسه میکند. مدل میتواند به طور خودکار ویژگیها را استخراج کند و با کمیت توزیع احتمال سازگار شود. نتایج دادههای توان سطح دقیقه نشان میدهد که میانگین نسبت تراکم (CR) 06/4 است که نسبت تراکم بالاتری نسبت به روش کدگذاری آنتروپی کلاسیک دارد.
یک چارچوب فشردهسازی تصویر لایهای ترکیبی با ترکیب یادگیری عمیق و کدکهای تصویر سنتی در [24] پیشنهاد میشود. در رمزگذار، ابتدا از یک شبکه عصبی کانولوشنال5 (CNN) برای به دست آوردن یک نمایش فشرده از تصویر ورودی استفاده میشود، که بهطور بدون تلفات توسط کدک FLIF به عنوان لایه پایه جریان بیت کدگذاری میشود. بازسازی درشت ورودی توسط CNN دیگری از نمایش فشرده بازسازی شده بهدست میآید. پس از آن باقیمانده بین ورودی و بازسازی درشت بهدست آمده و توسط کدک BPG مبتنی بر H.265/HEVC به عنوان لایه تقویتکننده جریان بیت کدگذاری میشود. نتایج استفاده از مجموعه دادههای Kodak و Tecnick نشان میدهد که طرح پیشنهادی از کدگذاری لایهای مبتنی بر یادگیری عمیق و کدکهای سنتی از جمله BPG در معیارهای PSNR و MS-SSIM در طیف وسیعی از نرخهای بیت بهتر عمل میکند. مقاله [25] یک روش فشردهسازی تصویر بدون تلفات را براساس یادگیری مقادیر پیکسل و زمینهها از طریق پرسپترونهای چند لایه (MLP) ارائه میکند. خطاهای پیشبینی و زمینههای بهدستآمده توسط MLPها به رمزگذارهای حسابی تطبیقی، مانند طرحهای فشردهسازی بدون تلفات معمولی، ارسال میشوند. پیشبینی مبتنی بر MLP مدتهاست که برای فشردهسازی بدون تلفات تلاش میشود، و اخیراً شبکههای عصبی کانولوشنال (CNN) نیز برای کدگذاری با اتلاف بدون تلفات پذیرفته شدهاند. در حالی که طرحهای فشردهسازی بدون تلفات مبتنی بر MLP فقط بر پیشبینی دقیق پیکسل متمرکز شدهاند، این کار، به طور مشترک مقادیر و زمینههای پیکسل را پیشبینی میکند. همچنین در این چارچوب مبتنی بر MLP، یادگیری پیشرونده، یادگیری باقیمانده و شبکه دوبلکس را از نظر کانال اتخاذ و طراحی میکند، که منجر به بهبود کدنویسی در مقایسه با روشهای مرسوم میشود. شبکههای عصبی عمیق (DNN) به طور گسترده برای بسیاری از برنامههای کاربردی تلفن همراه که نیاز به پیادهسازی بلادرنگ و فضای حافظه بزرگ دارند، استفاده میشوند. بنابراین، یک چالش جدید برای اجرای کم مصرف و کارآمد از تنوع برنامهها، مانند تشخیص گفتار و طبقهبندی تصویر، برای دستگاههای لبه جاسازی شده ارائه میکند.
در [26] یک رویکرد فشردهسازی DNN مبتنی بر سختافزار برای رسیدگی به منابع حافظه محدود در دستگاههای لبه ارائه میشود. همچنین، یک الگوریتم فشردهسازی مبتنی بر آنتروپی جدید برای رمزگذاری وزنهای DNN، و یک روش رمزگشایی بلادرنگ و اجرای سختافزار اختصاصی کارآمد پیشنهاد میکند. رویکرد پیشنهادی کاهش قابل توجهی از وزنهای DNN مورد نیاز را امکانپذیر میسازد (تقریباً 70٪ و 63٪ برای AlexNet و VGG19، به ترتیب)، در حالی که امکان رمزگشایی یک وزن در هر چرخه ساعت را فراهم میکند. نتایج، نسبت فشردهسازی بالایی را در مقایسه با الگوریتمهای بدون تلفات معروف نشان میدهد. رمزگشای سختافزاری، اجرای کارآمد شبکههای DNN بزرگ را در دستگاههای لبه کممصرف با منابع حافظه محدود امکانپذیر میکند. مقاله [27] یک روش فشردهسازی بدون تلفات جدید را برای حجمهای تصویربرداری پزشکی 16 بیتی ارائه میدهد. هدف، آموزش شبکه عصبی به عنوان یک پیشبینیکننده داده سهبعدی است که تفاوتها را با مقادیر دادههای اصلی به حداقل میرساند و باقیماندهها را با استفاده از کدگذاری حسابی فشرده میکند. عملکرد فشردهسازی مدلهای پیشنهادی با روشهای بدون تلفات پیشرفته ارزیابی میشود که نشان میدهد رویکرد پیشنهادی نسبت فشردهسازی بالاتری را در مقایسه با JPEG-LS، JPEG2000، JP3D، و HEVC انجام میدهد و به خوبی تعمیم مییابد. در [28]، از دادهکاوی بزرگ برای تنظیم کتاب کد تصویر (پیدا کردن اجزای اصلی تصاویر) استفاده شده است. این مقاله یک الگوریتم فشردهسازی نرم را برای تصاویر پزشکی چند جزئی پیشنهاد میکند که میتواند ساختار اساسی تصاویر را منعکس کند. در [29]، یک سیستم فشردهسازی پیشنهاد شده که به مشکلات محدودیتهای انرژی آندوسکوپی کپسول ویدیویی بیسیم میپردازد. این کار شامل یک حلقه بازخورد طبقهبندی، بر اساس یادگیری عمیق، برای تعیین اهمیت تصاویر در حال انتقال میباشد. این طبقهبندی با یک الگوریتم فشردهسازی مبتنی بر پیشبینی ساده استفاده میشود تا امکان مدیریت هوشمند انرژی محدود کپسول را فراهم کند. بنابراین تصاویر را به دو دسته با اهمیت و کم اهمیت بخشبندی میکند و بر اساس آن فشردهسازی با اتلاف و بدون اتلاف انجام میشود.
بزرگترین چالش شبکههای اینترنت اشیاء این است که اینترنت اشیاء ممکن است حافظه کافی برای مدیریت تمام دادههای تراکنش در شبکه نداشته باشد. در [30]، یک روش فشردهسازی برای کاهش ترافیک داده شبکه اینترنت اشیاء ارائه شد. بنابراین، الگوریتمهای فشردهسازی بدون تلفات مختلف، مانند الگوریتمهای مبتنی بر آنتروپی یا فرهنگ لغت، و روشهای فشردهسازی عمومی را بررسی میکند تا مشخص کند کدام الگوریتم یا روش به مشخصات اینترنت اشیاء پایبند است. علاوه بر این، این مقاله آزمایشهای فشردهسازی را با استفاده از آنتروپی (هافمن، هافمن تطبیقی) و دیکشنری (LZ77، LZ78) و همچنین پنج نوع از مجموعه دادههای ترافیک داده اینترنت اشیاء انجام میدهد. اگرچه الگوریتم های بالا میتوانند ترافیک دادههای اینترنت اشیاء را کاهش دهند، هافمن تطبیقی بهترین الگوریتم فشردهسازی را ارائه داد. بنابراین، در این مقاله، هدف ارائه یک روش فشردهسازی مفهومی برای ترافیک دادههای اینترنت اشیاء با بهبود یک هافمن تطبیقی مبتنی بر مفاهیم یادگیری عمیق با استفاده از وزنها، هرس کردن و تجمیع در شبکه عصبی است. اعتقاد بر این است که الگوریتم پیشنهادی نسبت فشرده سازی بهتری را به دست میآورد. از مطالعه و بررسی مقالات [31-38]، موارد زیر قابل تأمل است تا اهداف روش پیشنهادی را برجسته کند:
الف) فشردهسازی دادههای سلامتی و پزشکی افراد و مراقبتهای بهداشتی الکترونیکی، در جهت سیستم مانیتورینگ و کاهش نیاز ذخیرهسازی سیگنال و تصاویر دیجیتال مورد نیاز است.
ب) با توجه به اینکه همواره، فشردهسازی داده با اتلاف، به دلیل نسبت فشرده سازی بالا، استفاده میشود، اما دقت اطلاعات انتقالی و بازیابی شده کاهش مییابد. این امر جستجو برای یک رویکرد فشردهسازی با اتلاف کم و بهبود کیفیت تصاویر را با اهمیت میکند.
ج) عملکرد فشردهسازی یک سیگنال بیولوژیکی باید با مقایسه ویژگیهای تشخیصی دادهها ارزیابی شود. بنابراین حفظ این ویژگیها برای تشخیص درمانی از اهمیت بالایی برخوردار است.
د) روشهای مبتنی بر یادگیری عمیق به دلیل تواناییهای خود در افزایش بهره فشردهسازی نسبت به سایر روشها انتخاب میشوند ولی تلفات اطلاعاتی در این روش دقت را کاهش میدهد.
ه) روشهای بدون اتلاف، شامل کدگذاری هافمن، دارای نسبت فشردهسازی پایین و دقت و سرعت تبدیل قابل قبول میباشد. بنابراین در این مقاله سعی شده عملکرد ترکیبی روش رمزگذاری هافمن به صورت آبشاری و پشت سر هم با یک رویکرد فشردهسازی مبتنی بر یادگیری عمیق بررسی شود. این کار برای سیستم عاملهایی مانند IOMT که به پردازش زمان واقعی نیاز دارند و اطلاعات مهم پزشکی افراد را شامل میشوند، بسیار مناسب است و سریع عمل میکند. همچنین این مقاله با ایجاد یک راهکار بازسازی اطلاعات تصویر مبتنی بر الگوریتمهای فراابتکاری میتواند به روشهای فشردهسازی با نسبت بالا و کیفیت بدون اتلاف و یا بسیار کم اتلاف دست یابد.
3- روشهای فشردهسازی پیشنهادی
در روشهای ارائه شده برای فشردهسازی تصاویر پزشکی با توجه به اهمیت این اطلاعات برای تشخیص بیماری، سه مساله قابل بررسی است که برای رسیدن به یک فشردهسازی خوب بایستی معرفی شود. نسبت فشردهسازی با تعریف تعداد بیتهای معرف هر پیکسل و میزان شباهت تصاویر بازگردانی شده با تصاویر اصلی (دقت فشردهسازی) و سرعت رمزگذاری و رمزگشایی تصاویر با توجه به کاربردهای این سیستمها در شبکههای اینترنتی، سه فاکتور مهم برای بررسی فشردهسازی است. در این کار ما از دو روش فشردهسازی مبتنی بر شبکههای عصبی عمیق و رمزنگاری هافمن کسکد بهره بردهایم و برای اصلاح تصاویر باز گردانی شده، از روش فیلترینگ مکانی6 بهینه شده با الگوریتمهای فرا ابتکاری شامل الگوریتم گرگ خاکستری7 GWO و الگوریتم اسب وحشی8 WHO بهره بردهایم. شکل (1) نمای بلوک دیاگرام طرح پیشنهادی برای فشردهسازی را نمایش میدهد و اطلاعات تصویر را برای ذخیرهسازی یا انتقال در شبکه اینترنتی آماده میکند. بنابراین برای داشتن یک سیستم زمان-واقعی برای کاربردهای اینترنتی، داشتن سرعت بالا از چالشهای مهم در ارائه این روشها خواهد بود. شکل (2) بلوک دیاگرام گستردهسازی و بازگردانی تصاویر از اطلاعات دریافتی یا ذخیره شده در شبکه اینترنتی میباشد. در ادامه روشهای استفاده شده برای داشتن یک فشردهسازی بسیار کم اتلاف با نسبت فشردهسازی بالا را بررسی و تشریح خواهیم کرد.
3-1- روش مدلسازی پلکانی تصاویر پزشکی
در این رویکرد با توجه به اینکه مساله تکرار عناصر در آرایههای مختلف باعث افزایش بیشتر فشردهسازی اطلاعات به کمک روش هافمن میشود، تلاش شده است از یک مدل غیرخطی پلکانی طراحی شده با کمک شبکه عصبی عمیق استفاده کنیم. در این روش، تصاویر خاکستری پزشکی در محدوده 0 تا 255 بر اساس درجه تعریف شده به بازههایی تقسیمبندی میشوند که با کمک یک مدل آموزش دیده غیرخطی از شبکه عصبی عمیق، یک نگاشت پیکسل به پیکسل ارائه میکند. در شکل (3) نمای سیستم آموزش داده شده برای این بخش از کار معرفی شده است. این مدل بر اساس درجات مختلف در بازه 1 تا 20، محدوده تصاویر را به مقادیر تکراری از تصویر نگاشت میکند. این کار باعث میشود با ایجاد عناصر تکراری بتوان میزان فشردهسازی تصاویر با کمک رمزنگاری هافمن را بالا برد. بر اساس محدوده درجات تعریف شده در این تحقیق، هر چه به درجات بالاتر برسیم (چون تعداد تکرارها بیشتر میشود)، میزان فشردهسازی افزایش خواهد یافت. اما از طرف دیگر با افزایش درجه پلکانی، با اتلاف اطلاعاتی بیشتر روبرو میشویم که این کار فشردهسازی را دچار مشکل میکند. بنابراین برای ایجاد یک تعامل برای تصاویر مختلف با توجه به اهمیت آنها، این درجه تغییر خواهد کرد. شکل (4) دو نمونه از نگاشت پلکانی تصویر MRI را برای دو درجه 10 و 20 نمایش داده است. همانطور که مشاهده میشود با افزایش درجات در کیفیت تصاویر کاهش مشاهده میشود.
3-2- روش تخمین پیکسلهای تصویر با DNN
در رویکرد دیگر، به جای دستکاری اطلاعاتی و ایجاد اتلاف در اطلاعات پیکسلهای تصویر، از یک رویکرد تخمینی برای چند پیکسل بر اساس اطلاعات پیکسلی همسایه مطابق شکل (1) بهره بردیم. در روش اول با کمک شبکه عصبی آموزش دیده برای اطلاعات تصویر چند نمونه تصویر MRI و CT مطابق شکل (5)، به یک روش پیشبینی پیکسل مرکزی در یک پنجره 3 در3 رسیدهایم. بنابراین به یک سیستم با 8 ورودی و یک خروجی تخمینی رسیدهایم. در روش دوم، از یک پنجره 8 در 1 استفاده کرده و بر اساس شبکه آموزش دیده شکل (6)، دو مقدار از پیکسلهای هفتم و هشتم را محاسبه کردهایم. شکل (7) نتایج مقایسه تصاویر به دو روش مختلف را نمایش داده است. در این مقایسه تصاویر با پنجرههای 3 در 3 از دقت تخمین بسیار خوبی برخوردار میباشد. با کمک این روش تخمین با کمک شبکه عصبی عمیق، توانستهایم با توجه به میزان نسبت پیکسلهای تخمینی، به فشردهسازی تصویر کمک کنیم. برای نمونه، در روش اول با نسبت 8 بر 9 و در روش دوم با نسبت 6 بر 8 توانستهایم این کاهش حجم اطلاعات تصویر را اعمال کنیم.
شکل (1): نمایش فلوچارت فشردهسازی طرح پیشنهادی
شکل (2): نمایش فلوچارت طرح پیشنهادی برای بازگردانی تصاویر فشرده شده و بازسازی آنها
(a)
(b)
شکل (3): نمایش سیستم شبکه عصبی عمیق آموزش دیده برای نگاشت پلکانی تصویر. الف- آموزش شبکه عصبی با لایه های مخفی [1، 5، 10، 18 و 50]، ب- رگرسیون خروجی.
(a) (b) (c)
شکل (4): نمایش عملکرد نگاشت پلکانی با درجات (a) تصویر اصلی (b) درجه 20 . (c) درجه 10.
شکل (5): شبکه عصبی عمیق آموزش دیده برای پنجره 3 در 3. الف- آموزش شبکه عصبی با لایههای مخفی [1، 5، 10، 18 و 50]، ب- رگرسیون خروجی.
(a) (b)
شکل (6): شبکه عصبی عمیق آموزش دیده برای پنجره 1 در 8. الف- آموزش شبکه عصبی با لایههای مخفی [2، 5، 18 و 20] ب- رگرسیون خروجی.
(a) (b)
شکل (7): مقایسه نتایج عملکرد تخمین پیکسلها برای دو تصویر مختلف.(a) پنجره 3 در 3 (b) - پنجره 1 در 8.
شکل (8): نمایش عملکرد فشردهسازی نمونه با کمک رمزنگاری هافمن آبشاری.
شکل (9): نحوه فیلترینگ تصویر به ازای یک فیلتر 3 در 3.
3-3- فشردهسازی با رمزنگاری هافمن آبشاری9
برای افزایش بیشتر فشردهسازی، از یک روش رمزنگاری هافمن آبشاری بهره بردهایم. در این رویکرد با کمک یک روش تبدیل کد باینری به کد اکتال، اطلاعات فشرده شده را با یک رمزنگاری هافمن اولیه برای رمزنگاری هافمن ثانویه آماده میکنیم. این روش کمک میکند تا از حداکثر ظرفیت فشردهسازی اطلاعاتی بهره ببریم. شکل (8) نمای عملیاتی این طرح را ارائه کرده است.
3-4- بازگردانی تصویر و بازسازی آن با فیلترینگ مکانی بهینهشده با الگوریتمهای فراابتکاری
برای نمایش ترکیب، مورفولوژی و پیچیدگی عناصر از فیلترها استفاده میشود. عمل فیلتر عمدتاً به منظور بالابردن وضوح تصاویر از طریق حذف فرکانسهای فضایی مشخصی در تصاویر انجام میگردد. فرکانسهای فضایی، تغییرات روشنایی و مقادیر متفاوت را در خود دارد. فیلترهای ترکیبی نیز به منظور استخراج اطلاعات برای ترکیب تصاویر به کار میروند. همچنین، فیلترها برای آشکارسازی اطلاعات و بازسازی تصاویر به کار گرفته میشوند. از فیلترهای مورفولوژی نیز به منظور تهیه تصاویر بر اساس شکل پدیدهها استفاده میشود. از دیگر کاربردهای فیلترها، ادغام تصاویر، بهبود کنتراست، تهیه تصاویر رنگی ترکیبی و تبدیلهای طیفی و مکانی است. این فیلترها به طور کلی به دو دسته تقسیم میشوند:
· فیلترهای مکانی: فیلترهایی هستند که بعد مکان را در نظر گرفته و از کرنلها یا پنجرههای با ابعاد ثابت استفاده می کنند. این فیلترها، روی تک تک پیکسلهای تصویر اعمال شده و انواع مختلفی بالاگذر و پایین گذر دارد.
· فیلترهای فرکانسی (طیفی): این فیلترها تغییرات فرکانسها را در نظر میگیرند که به دو دسته فرکانس بالا (HFF) و فرکانس پایین (LFF) تقسیم میشوند. در واقع این فیلترها اطلاعات و تغییرات فرکانسها را در تصاویر مورد بررسی قرار میدهند.
در پردازش تصویر، یکی از رایجترین راهها برای بهبود یک تصویر، فیلترهای مکانی هست. فیلترهای مکانی در حوزه مکان روی تصویر اعمال میشوند و اطلاعات مورد نظر را از تصویر استخراج میکنند. رایجترین انواع فیلترهای مکانی، فیلتر متوسطگیری، Median، لاپلاسین،Sobel ، Prewitt، Canny و Wiener است که از آنها در کاربردهای مختلفی مثل کاهش نویز، بهبود لبهها و آشکارسازی لبههای تصویر استفاده میشود. پیکسلهای همسایه، اطلاعات مهمی در مورد هر پیکسل ارائه میدهند؛ که میتوان از آنها برای حذف نویز و شناسایی لبههای تصویر استفاده کرد. به طور ساده، فیلترهای مکانی این اطلاعات را استخراج میکنند. در این مرحله که برای بازگردانی اطلاعات ارائه شده، پس از رمزگشایی اطلاعات تصویر با کمک رمزگشایی هافمن کسکید، از یک روش فیلترینگ مکانی بهینه برای اصلاح تصاویر استخراج شده بهره خواهیم برد. در ابتدا یک فیلتر مکانی با اندازه مشخص تعریف میشود که درایههای آن مقادیر مختلفی دارند. بسته به اینکه مقدار درایههای فیلتر مکانی چه باشد، خاصیت فیلتر مشخص میشود. اگر مقادیر بر اساس انتگرال تعریف شوند، در نتیجه اعمال فیلتر روی تصویر، تصویر هموار میشود و اگر براساس مشتق تعریف شوند، در نتیجه آن لبههای تصویر استخراج میشود. در این تحقیق با هدف اصلاح تصاویر بازگردانی شده، ضرایب فیلتر به کمک الگوریتمهای فراابتکاری تعریف میشود. بر مبنای ضرایب ماتریس در شامل متغیر برای محاسبه بهترین تصویر در تشابه با تصویر اصلی ایجاد کرده است. شکل (9) نحوه فیلتر کردن تصویر در حوزه مکان را نمایش داده است. در این کار برای تعیین ضرایب فیلتر با اندازههای مختلف از دو الگوریتم فرا ابتکاری گرگ خاکستری GWO و اسب وحشی WHO بهره بردهایم. برای تعیین مطابقت تصاویر برای 20 نمونه تصویر تحت آموزش از نوع CT و MRI برای بهینهسازی استفاده شد. در این مورد تصاویر استخراج شده بعد از گستردهسازی با تصاویر اصلی به کمک سه معیار ضریب همبستگی و مدولاسیون شاخص تشابه ساختاری10 (SSIM) و نسبت سیگنال به نویز پیک11 (PSNR) مطابق تابع هدف زیر با هم مقایسه شده و بهترین ضریب فیلترینگ استخراج میشود. که در این تابع معرف متغیرهای ضریب فیلترینگ میباشد. اندازه ماتریس فیلتر و تصویر اصلی است که قرار است بعد از اعمال روشهای فشردهسازی شبکه عصبی عمیق با این تصویر مقایسه شود.
شکلهای (10-11) نحوه عملکرد الگوریتمهای بهینهسازی فراابتکاری را نمایش داده است. نتایج برای محاسبه بهترین پاسخها در جدول (1) ارائه شده است. بر اساس نتایج بهدست آمده، الگوریتم اسب وحشی توانسته با نرخ بهینهسازی بهتر و همگرایی زودتر به جواب بهینه جهانی دست یابد. در نهایت با اعمال فیلتریگ بر تصاویر نمونه توانستهایم به اصلاح تصویر و بازسازی بهینه تصاویر بپردازیم. برای بررسی عملکرد این بازسازی پیشنهاد شده در این تحقیق مطابق شکل (12) برای چند نمونه از تصاویر این بهبودها بررسی شده است. این تصاویر MRI و CT برای نمونههای اصلی، اتلاف شده و اصلاح شده با هر دو الگوریتم پیشنهادی ارائه شده است. بررسیها نشان داد الگوریتم اسب وحشی توانسته بهبود خوبی در تصاویر ایجاد نماید. در بخش نتایج، معیارهای ارزیابی بر تصاویر اصلاح شده اعمال میشود و با سایر مقالات مقایسه شده است. بنابراین در این کار تنها از الگوریتم بهینهسازی اسب وحشی برای تعریف ضرایب ماتریس فیلترینگ مکانی برای بخش بازسازی تصاویری بهره خواهیم برد.
شکل (10): نمایش عملکرد الگوریتم بهینهسازی گرگ خاکستری
شکل (11): نمایش عملکرد الگوریتم بهینهسازی اسب وحشی
جدول (1): نمایش مقایسه الگوریتمهای فراابتکاری برای تعیین ضرایب فیلترینگ.
الگوریتمهای فراابتکاری | ضرایب فیلتر مکان | بهینه جهانی تابع هدف |
GWO | [14241/0 14868/0 041192/0 017906/0 22811/0 16536/0 0012268/0 28101/0 033118/0] | 5639/4 |
WHO | [0 19198/0 06536/0 10994/0 46829/0 0029787/0 0092472/0 18674/0 021096/0] | 3659/4 |
GWO
WHO
شکل (12): نمایش نتایج اصلاح شده از تصاویر مختلف
(a) (b)
شکل (13): نمایش تصاویر سر و مغز از بیماران مختلف.
(الف- MRI و ب-CT)
4- نتایج شبیهسازی
4-1- مجموعه داده
مجموعه داده برای انجام ارزیابی تجربی و نسبت فشردهسازی برحسب نسبت بیتها بر هر پیکسل مشخص میشود. مجموعه داده عمومی حاوی فایلهای DICOM است که در مجموع 12 جلد MRI از اسکن سر بیماران را تشکیل میدهد [39-40]. هر فایل شامل تصاویر مختلف MRI و CT میباشد. هر تصویر دارای وضوح 512 × 512 با فاصله پیکسلی [5، 5/0] است. همه پیکسلها با حداقل مقدار شدت 0 و حداکثر 255 است. تصویری از نماهای برش متعامد از Dataset در شکل (13) نشان داده شده است.
4-2- معیارهای ارزیابی
یک مرحله ضروری پردازش تصویر، فشردهسازی تصویر پزشکی است. مقایسه تصاویر برای ارزیابی کیفیت فشردهسازی بخش ضروری اندازهگیری بهبود است. انتخاب متریک یکی از چالشهای ارزیابی فشردهسازی پزشکی است [41و42]. استفاده از معیارهای ارزیابی مناسب برای اندازهگیری روشهای فشردهسازی و بهبود بسیار مهم است. ما از چهار معیار ارزیابی به شرح زیر استفاده کردیم:
· مدولاسیون شاخص تشابه ساختاری (SSIM).
· MSE.
· PSNR.
· ضریب همبستگی
روش تعیین شاخص تشابه ساختاری (SSIM) برای ارزیابی شباهت دو تصویر استفاده میشود. درخشندگی، کنتراست و ساختار سه عبارت هستند که برای تعیین SSIM استفاده میشود [43]:
(1) |
|
(2) |
|
(3) |
|
(4) |
|
(5) |
|
(6) |
|
(7) |
|
(8) |
|
Ref. | Method | MSE | PSNR | CN | SSIM | Bit rates compression in bpp | Time (ms) |
MRI1 | Estimation technique | 0.905 | 37.39 | 0.9992 | 0.9686 | 3.289 | 687 |
MRI2 | Staircase technique | 0.834 | 44.34 | 0.9938 | 0.9698 | 4.56 | 743 |
MRI3 | Estimation technique | 0.983 | 39.56 | 0.9956 | 0.9566 | 4.15 | 534 |
MRI4 | Staircase technique | 0.584 | 34.76 | 0.9999 | 0.9923 | 3.67 | 874 |
CT1 | Staircase technique | 0.477 | 41.97 | 0.9989 | 0.9565 | 1.63 | 436 |
CT2 | Estimation technique | 0.678 | 46.10 | 0.9921 | 0.9452 | 2.87 | 812 |
CT3 | Staircase technique | 0.443 | 31.56 | 0.9976 | 0.9634 | 3.65 | 943 |
CT4 | Estimation technique | 0.77 | 29.89 | 0.9985 | 0.9576 | 3.125 | 563 |
Average |
| 0.7092 | 38.196 | 0.9970 | 0.9637 | 3.3680 | 699 |
[16] | -- | -- | -- | -- | -- | 3.87 | -- |
[46] | -- | -- | 36.11 | -- | 0.92 | 2.87 | 4000 |
[20] | -- | -- | 29.33 | -- | 0.9634 | 4.4 | 1000 |
[45] | -- | -- | 31.05 | -- | -- | 2.5 | -- |
شکل (14): نتایج بازسازی تصاویر پزشکی اصلی و اختلاف آنها برای چند نمونه مختلف
شکل (15): نمایش نمودار میلهای تصاویر مختلف
6- نتیجهگیری
در این مقاله یک رویکرد جدید برای فشردهسازی و بازسازی تصاویر پزشکی CT و MRI پیشنهاد شد. روش فشردهسازی پیشنهادی با دو روش ترکیبی شبکههای عصبی عمیق با رمزنگاری هافمن آبشاری ارائه میشود. این روشها شامل مدلسازی پلکانی تصاویر خاکستری پزشکی و تخمینگرهای پیکسلها از روی پیکسلهای همسایه میباشد. سپس از یک رویکرد بازسازی با کمک فیلترینگ مکانی بهینه شده برای تصاویر رمزگشایی شده بهره برده شد. ابتدا برای یک تصویر معین، یک تابع هدف بر روی مسئله بهبود تصویر فرموله میشود، برای حل آن از همگرایی الگوریتمهای فراابتکاری GWO و WHO استفاده شد. یک راهحل سراسزی برای این فرآیند به دست آمد و سپس ضرایب فیلتر برای افزایش مشابهت تصاویر استخراج شده با تصاویر اصلی محاسبه شد. پیچیدگی با معرفی همگرایی برای مسئله داده شده بررسی شد و بعد از محاسبه ضرایب تنها به یک فیلترینگ مکانی برای تصاویر دیگر بسنده شد. عملکرد روشهای پیشنهادی از نظر PSNR، SSIM، CN، MSE و زمان صرف شده برای انجام فشردهسازی و بازسازی به دست آمد. نتایج بهدست آمده نشان میدهد که روشهای ارائه شده توانسته با کمترین پیچیدگی و تاخیر محاسباتی، عملیات فشردهسازی با نسبت فشردهسازی خوبی را انجام دهند. همچنین با محاسبه معیارهای ارزیابی مختلف تصاویر پزشکی این روشها توانسته است نتایج بسیار خوبی در مقایسه کارهای دیگر داشته باشند. علاوه بر این، در این پژوهش ضمن دستیابی به یک محدوده فشردهسازی مطلوب و تخمین قابل قبول از پیکسلهای حذف شده در کمترین زمان ممکن توانستهایم به یک بازسازی تصاویر با دقت بالا و کیفیت مطلوب دست یابیم. برای ادامه این تحقیق در آینده سعی خواهیم کرد یک الگوی تخمینی از پیکسلهای مختلف در پنجرههای متفاوت با کمک استخراج ویژگیهای هر پنجره با کمک سیستمهای یادگیری عمیق ایجاد کنیم و براساس این ویژگیهای استخراج شده تصاویر مختلف بازسازی و بازگردانی شوند.
مراجع
[1] M.-A. Moreno-Ibarra, Y. Villuendas-Rey, M. D. Lytras, C. Yáñez-Márquez, and J.-C. Salgado-Ramírez, "Classification of diseases using machine learning algorithms: A comparative study," Mathematics, vol. 9, p. 1817, 2021.
[2] H. P. Chan, L. M. Hadjiiski, and R. K. Samala, "Computer‐aided diagnosis in the era of deep learning," Medical physics, vol. 47, pp. e218-e227, 2020.
[3] W. Mbarki, M. Bouchouicha, S. Frizzi, F. Tshibasu, L. B. Farhat, and M. Sayadi, "Lumbar spine discs classification based on deep convolutional neural networks using axial view MRI," Interdisciplinary Neurosurgery, vol. 22, p. 100837, 2020.
[4] J. Martinez-Mas, A. Bueno-Crespo, R. Martinez-Espana, M. Remezal-Solano, A. Ortiz-Gonzalez, S. Ortiz-Reina, et al., "Classifying Papanicolaou cervical smears through a cell merger approach by deep learning technique," Expert Systems with Applications, vol. 160, p. 113707, 2020.
[5] H. Zhou, K. Wang, and J. Tian, "Online transfer learning for differential diagnosis of benign and malignant thyroid nodules with ultrasound images," IEEE Transactions on Biomedical Engineering, vol. 67, pp. 2773-2780, 2020.
[6] F. Liu, M. Hernandez-Cabronero, V. Sanchez, M. W. Marcellin, and A. Bilgin, "The current role of image compression standards in medical imaging," Information, vol. 8, p. 131, 2017.
[7] J. Huang, S. Zhang, and D. Metaxas, "Efficient MR image reconstruction for compressed MR imaging," Medical Image Analysis, vol. 15, pp. 670-679, 2011.
[8] J. C. Salgado-Ramírez, J. M. Vianney Kinani, E. A. Cendejas-Castro, A. J. Rosales-Silva, E. Ramos-Díaz, and J. L. Díaz-de-Léon-Santiago, "New model of heteroasociative min memory robust to acquisition noise," Mathematics, vol. 10, p. 148, 2022.
[9] A. Benou, R. Veksler, A. Friedman, and T. R. Raviv, "Ensemble of expert deep neural networks for spatio-temporal denoising of contrast-enhanced MRI sequences," Medical image analysis, vol. 42, pp. 145-159, 2017.
[10] K.-H. Thung, P.-T. Yap, E. Adeli, S.-W. Lee, D. Shen, and A. s. D. N. Initiative, "Conversion and time-to-conversion predictions of mild cognitive impairment using low-rank affinity pursuit denoising and matrix completion," Medical image analysis, vol. 45, pp. 68-82, 2018.
[11] E. Agustsson, M. Tschannen, F. Mentzer, R. Timofte, and L. V. Gool, "Generative adversarial networks for extreme learned image compression," in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019, pp. 221-231.
[12] M. Li, W. Zuo, S. Gu, D. Zhao, and D. Zhang, "Learning convolutional networks for content-weighted image compression," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp. 3214-3223.
[13] N. Johnston, D. Vincent, D. Minnen, M. Covell, S. Singh, T. Chinen, et al., "Improved lossy image compression with priming and spatially adaptive bit rates for recurrent networks," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp. 4385-4393.
[14] S. Santurkar, D. Budden, and N. Shavit, "Generative compression," in 2018 Picture Coding Symposium (PCS), 2018, pp. 258-262.
[15] E. Agustsson, M. Tschannen, F. Mentzer, R. Timofte, and L. V. Gool, "Generative adversarial networks for extreme learned image compression," in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019, pp. 221-231.
[16] S. M. Belgaonkar and V. Singh, "Image compression and reconstruction in compressive sensing paradigm," Global Transitions Proceedings, vol. 3, pp. 220-224, 2022.
[17] Y. Pourasad and F. Cavallaro, "A novel image processing approach to enhancement and compression of X-ray images," International Journal of Environmental Research and Public Health, vol. 18, p. 6724, 2021.
[18] J. Luo, J. Wu, S. Zhao, L. Wang, and T. Xu, "Lossless compression for hyperspectral image using deep recurrent neural networks," International Journal of Machine Learning and Cybernetics, vol. 10, pp. 2619-2629, 2019.
[19] H. Zhang, F. Cricri, H. R. Tavakoli, N. Zou, E. Aksu, and M. M. Hannuksela, "Lossless image compression using a multi-scale progressive statistical model," in Proceedings of the Asian Conference on Computer Vision, 2020.
[20] D. Mishra, S. K. Singh, and R. K. Singh, "Lossy medical image compression using residual learning-based dual autoencoder model," in 2020 IEEE 7th Uttar Pradesh section international conference on electrical, electronics and computer engineering (UPCON), 2020, pp. 1-5.
[21] J. Azar, A. Makhoul, R. Couturier, and J. Demerjian, "Robust IoT time series classification with data compression and deep learning," Neurocomputing, vol. 398, pp. 222-234, 2020.
[22] Z. Cheng, H. Sun, M. Takeuchi, and J. Katto, "Learned lossless image compression with a hyperprior and discretized gaussian mixture likelihoods," in ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp. 2158-2162.
[23] Z. Ma, H. Zhu, Z. He, Y. Lu, and F. Song, "Deep Lossless Compression Algorithm Based on Arithmetic Coding for Power Data," Sensors, vol. 22, p. 5331, 2022.
[24] H. Fu, F. Liang, B. Lei, N. Bian, Q. Zhang, M. Akbari, et al., "Improved hybrid layered image compression using deep learning and traditional codecs," Signal Processing: Image Communication, vol. 82, p. 115774, 2020.
[25] H. Rhee, Y. I. Jang, S. Kim, and N. I. Cho, "Lossless image compression by joint prediction of pixel and context using duplex neural networks," IEEE Access, vol. 9, pp. 86632-86645, 2021.
[26] T. Malach, S. Greenberg, and M. Haiut, "Hardware-based real-time deep neural network lossless weights compression," IEEE Access, vol. 8, pp. 205051-205060, 2020.
[27] O. H. Nagoor, J. Whittle, J. Deng, B. Mora, and M. W. Jones, "Lossless compression for volumetric medical images using deep neural network with local sampling," in 2020 IEEE International Conference on Image Processing (ICIP), 2020, pp. 2815-2819.
[28] G. Xin and P. Fan, "A lossless compression method for multi-component medical images based on big data mining," Scientific Reports, vol. 11, p. 12372, 2021.
[29] A. Nasif, Z. A. Othman, and N. S. Sani, "The deep learning solutions on lossless compression methods for alleviating data load on IoT nodes in smart cities," Sensors, vol. 21, p. 4223, 2021.
[30] O. H. Nagoor, J. Whittle, J. Deng, B. Mora, and M. W. Jones, "Sampling strategies for learning-based 3D medical image compression," Machine Learning with Applications, vol. 8, p. 100273, 2022.
[31] S. Mirjalili, S. M. Mirjalili, A. Lewis, and G. W. Optimizer, "Advances in engineering software," Renewable and Sustainable Energy Reviews, vol. 69, pp. 46-61, 2014.
[32] I. Naruei and F. Keynia, "Wild horse optimizer: A new meta-heuristic algorithm for solving engineering optimization problems," Engineering with computers, vol. 38, pp. 3025-3056, 2022.
[33] D. A. Huffman, "A method for the construction of minimum-redundancy codes," Proceedings of the IRE, vol. 40, pp. 1098-1101, 1952.
[34] B. O’Hanen and M. Wisan, "JPEG Compression'," ed: Citeseer, 2005.
[35] P. Kaur, "Compression using fractional Fourier transform," a thesis submitted in the partial fulfillment of requirement for the award of the degree of master of engineering in electronics and communicationDeemed University, 2010.
[36] A. Odat, M. Otair, and M. Al-Khalayleh, "Comparative study between LM-DH technique and Huffman coding," International Journal of Applied Engineering Research, vol. 10, pp. 36004-36011, 2015.
[37] J. Schmidhuber, "Deep learning in neural networks: An overview," Neural networks, vol. 61, pp. 85-117, 2015.
[38] J.-T. Chien, "Chapter 7 - Deep Neural Network," in Source Separation and Machine Learning, J.-T. Chien, Ed., ed: Academic Press, 2019, pp. 259-320.
[39] C. Cardenas, A. Mohamed, G. Sharp, M. Gooding, H. Veeraraghavan, and J. Yang, "Data from AAPM RT-MAC grand challenge 2019," The Cancer Imaging Archive, 2019.
[40] C. E. Cardenas, A. S. Mohamed, J. Yang, M. Gooding, H. Veeraraghavan, J. Kalpathy‐Cramer, et al., "Head and neck cancer patient images for determining auto‐segmentation accuracy in T2‐weighted magnetic resonance imaging through expert manual segmentations," Medical physics, vol. 47, pp. 2317-2322, 2020.
[41] S. G. Jafarzadeh, M. N. A. Rahman, and D. A. Wahab, "Optimization of supply chain management based on response surface methodology: A case study of iran khodro," World Applied Sciences Journal, vol. 20, pp. 620-627, 2012.
[42] A. Deshpande, V. V. Estrela, and N. Razmjooy, Computational Intelligence Methods for Super-Resolution in Image Processing Applications: Springer, 2021.
[43] A. G. M. Strollo, E. Napoli, D. De Caro, N. Petra, and G. Di Meo, "Comparison and extension of approximate 4-2 compressors for low-power approximate multipliers," IEEE Transactions on Circuits and Systems I: Regular Papers, vol. 67, pp. 3021-3034, 2020.
[44] H. E.-d. H. Ahmed, H. M. Kalash, and O. S. Farag Allah, "Encryption quality analysis of the RC5 block cipher algorithm for digital images," Optical Engineering, vol. 45, pp. 107003-107003-7, 2006.
[45] S. M. Belgaonkar and V. Singh, "Image compression and reconstruction in compressive sensing paradigm," Global Transitions Proceedings, vol. 3, pp. 220-224, 2022.
[46] W. Al-Haidri, I. Matveev, M. A. Al-Antari, and M. Zubkov, "A Deep Learning Framework for Cardiac MR Under-Sampled Image Reconstruction with a Hybrid Spatial and k-Space Loss Function," Diagnostics, vol. 13, p. 1120, 2023.
نشریه تحلیل مدارها، داده ها و سامانه ها - سال اول- شماره سوم - پاییز 1402 |