تقييم جودة البرمجيات المطورة باستخدام تقنيات الذكاء الاصطناعي: دراسة تحليلية تطبيقية Evaluating the Quality of Software Developed Using Artificial Intelligence Techniques: An Applied Analytical Study

Document Type : Original Article

Author

جامعة آزاد الإسلامية / إيران

10.18576//ijlms.2025.391545.1104

Abstract

المستخلص: تُعد جودة البرمجيات أحد الركائز الأساسية في نجاح أنظمة المعلومات وتطبيقات الحوسبة الحديثة، حيث تؤثر بشكل مباشر على أداء الأنظمة، أمانها، وقابليتها للصيانة والتطوير. ومع تعقّد البرمجيات الحديثة وارتفاع حجم الكود وكثافة التعديلات التي يجريها المبرمجون، ظهرت حاجة متزايدة إلى وسائل تقييم ذكية وفعالة للجودة، تتجاوز الطرق التقليدية اليدوية التي قد تستهلك وقتًا طويلًا وتكون معرضة للأخطاء. في هذا السياق، برز الذكاء الاصطناعي كأداة واعدة تعزز من جودة التقييم وتدعم المبرمجين بقدرات تحليل وتنبؤ دقيقة، وكذلك يركز هذا البحث على دراسة وتحليل دور تقنيات الذكاء الاصطناعي في تقييم جودة البرمجيات المطورة بواسطة المبرمجين. ويستعرض بالتفصيل أهم الأدوات والخوارزميات المستخدمة، مثل التحليل الثابت للكود باستخدام تعلم الآلة، واستخدام الشبكات العصبية لاكتشاف العيوب والتوصية بتحسينات. كما يناقش البحث مؤشرات الجودة التي تعتمدها هذه النظم، مثل معدل العيوب، تعقيد الكود، قابلية الفهم، والأداء، وتم تحليل أدوات معروفة مثل SonarQube، DeepCode، وAmazon CodeGuru، وتقييم كفاءتها في بيئات تطوير مختلفة. كما يتناول البحث التحديات التقنية والتنظيمية المرتبطة بتوظيف الذكاء الاصطناعي في هذا المجال، مثل الحاجة إلى بيانات تدريب موثوقة، وصعوبة تفسير مخرجات النماذج، والتكامل مع سير عمل الفرق البرمجية، كذلك تتوج الدراسة بعرض حالة عملية تطبيقية في بيئة تطوير حقيقية، أظهرت انخفاضًا ملحوظًا في عدد العيوب وتحسنًا في أداء النظام بعد دمج أدوات الذكاء الاصطناعي، ويخلص البحث إلى أن الذكاء الاصطناعي ليس فقط أداة تكميلية في التقييم، بل يمكن اعتباره محركًا أساسياً في مستقبل جودة البرمجيات، شرط التعامل الواعي مع تحدياته وقيوده.
Abstract: Software quality is one of the cornerstones of the success of modern information systems and computing applications, directly impacting system performance, security, maintainability, and scalability. With the complexity of modern software, the increasing volume of code, and the intensive modifications made by programmers, there has been a growing need for intelligent and effective quality assessment methods. Beyond traditional manual methods that can be time-consuming and error-prone, in this context, artificial intelligence has emerged as a promising tool that enhances the quality of evaluation and supports programmers with accurate analysis and prediction capabilities. This research also focuses on studying and analyzing the role of artificial intelligence techniques in evaluating the quality of software developed by programmers. It details the most important tools and algorithms used, such as static code analysis using machine learning and the use of neural networks to detect defects and recommend improvements. The research also discusses the quality indicators used by these systems, such as defect rate, code complexity, understandability, and performance. Well-known tools such as Sonar Qube, Deep Code, and Amazon Code Guru are analyzed and evaluating its effectiveness in different development environments. The study also addresses the technical and organizational challenges associated with employing AI in this field, such as the need for reliable training data, the difficulty of interpreting model outputs, and integration with the workflow of software teams. The study also culminates in a practical application case study in a real development environment. It demonstrated a significant reduction in defects and improved system performance after integrating AI tools. The study concludes that AI is not only a complementary tool in evaluation, but can also be considered a key driver of the future of software quality, provided its challenges and limitations are consciously addressed.

Keywords

Main Subjects