--- title: Backpropagation localeTitle: العكسي --- ## العكسي Backprogapation هو موضوع فرعي [للشبكات العصبية](../neural-networks/index.md) ، وهي العملية التي بواسطتها تقوم بحساب تدرجات كل عقدة في الشبكة. تقيس هذه التدرجات "الخطأ" الذي تسهم به كل عقدة في طبقة الخرج ، لذلك في تدريب الشبكة العصبية ، يتم تصغير هذه التدرجات. ملاحظة: يتطلب التكاثر العكسي ، والتعلم الآلي بشكل عام ، معرفة كبيرة بالجبر الخطي والتلاعب بالمصفوفة. ينصح بشدة الدورات الدراسية أو القراءة في هذا الموضوع قبل محاولة فهم محتويات هذه المقالة. ### حساب يمكن تفسير عملية backpropagation في ثلاث خطوات. وبالنظر إلى ما يلي * أمثلة تدريب m (x، y) على شبكة عصبية من الطبقات L * g = وظيفة السيني * ثيتا (ط) = مصفوفة الانتقال من إيث إلى طبقة i + 1th * a (l) = g (z (l))؛ صفيف من قيم العقد في الطبقة l استناداً إلى مثال تدريب واحد * z (l) = Theta (l-1) a (l-1) * دلتا مجموعة من L matricies تمثل التحولات بين طبقة i و i + 1th * d (l) = مصفوفة التدرجات للطبقة l من أجل مثال تدريب واحد * D مجموعة من matricies L مع التدرجات النهائية لكل عقدة * lambda مصطلح regualrization للشبكة في هذه الحالة ، بالنسبة للمصفوفة M ، سوف تشير M إلى تحويل المصفوفة M 1. تعيين كافة إدخالات Delta (i) ، لـ i من 1 إلى L ، صفر. 2. لكل مثال تدريب t من 1 إلى m ، قم بإجراء ما يلي: * إجراء الانتشار إلى الأمام على كل مثال لحساب (l) و z (l) لكل طبقة * الحوسبة d (L) = a (L) - y (t) * compute d (l) = (Theta (l) '• d (l + 1)) • g (z (l)) لـ l من L-1 إلى 1 * زيادة دلتا (l) بواسطة دلتا (l + 1) • a (l) ' 1. سد Matrichies دلتا في matricies المشتقة الجزئية لدينا D (l) = 1 \\ m (Delta (l) + lambda • Theta (l))؛ إذا ل ل ≠ 0 D (l) = 1 \\ m • Delta (l)؛ إذا ل = 0 وبالطبع ، فإن مجرد رؤية هذه المقالة تبدو معقدة بشكل كبير ويجب ألا يتم فهمها إلا في السياقات الأكبر للشبكات العصبية والتعلم الآلي. يرجى الاطلاع على المراجع المتوقفة لفهم أفضل للموضوع ككل. #### معلومات اكثر: * [محاضرة 4 CS231n مقدمة في الشبكات العصبية](https://youtu.be/d14TUNcbn1k?t=354) * [سراج رافال - العودة في 5 دقائق](https://www.youtube.com/watch?v=q555kfIFUCM) * [أندرو نغ ML ML](https://www.coursera.org/learn/machine-learning/) * [في العمق ، مقالة نمط ويكي](https://brilliant.org/wiki/backpropagation/) * [Backprop على ويكيبيديا](https://en.wikipedia.org/wiki/Backpropagation) * [وهناك خطوة خطوة على سبيل المثال Backpropagation](https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/)