freeCodeCamp/guide/arabic/machine-learning/backpropagation/index.md

48 lines
3.4 KiB
Markdown

---
title: Backpropagation
localeTitle: العكسي
---
## العكسي
Backprogapation هو موضوع فرعي [للشبكات العصبية](../neural-networks/index.md) ، وهي العملية التي بواسطتها تقوم بحساب تدرجات كل عقدة في الشبكة. تقيس هذه التدرجات "الخطأ" الذي تسهم به كل عقدة في طبقة الخرج ، لذلك في تدريب الشبكة العصبية ، يتم تصغير هذه التدرجات.
ملاحظة: يتطلب التكاثر العكسي ، والتعلم الآلي بشكل عام ، معرفة كبيرة بالجبر الخطي والتلاعب بالمصفوفة. ينصح بشدة الدورات الدراسية أو القراءة في هذا الموضوع قبل محاولة فهم محتويات هذه المقالة.
### حساب
يمكن تفسير عملية backpropagation في ثلاث خطوات.
وبالنظر إلى ما يلي
* أمثلة تدريب m (x، y) على شبكة عصبية من الطبقات L
* g = وظيفة السيني
* ثيتا (ط) = مصفوفة الانتقال من إيث إلى طبقة i + 1th
* a (l) = g (z (l))؛ صفيف من قيم العقد في الطبقة l استناداً إلى مثال تدريب واحد
* z (l) = Theta (l-1) a (l-1)
* دلتا مجموعة من L matricies تمثل التحولات بين طبقة i و i + 1th
* d (l) = مصفوفة التدرجات للطبقة l من أجل مثال تدريب واحد
* D مجموعة من matricies L مع التدرجات النهائية لكل عقدة
* lambda مصطلح regualrization للشبكة
في هذه الحالة ، بالنسبة للمصفوفة M ، سوف تشير M إلى تحويل المصفوفة M
1. تعيين كافة إدخالات Delta (i) ، لـ i من 1 إلى L ، صفر.
2. لكل مثال تدريب t من 1 إلى m ، قم بإجراء ما يلي:
* إجراء الانتشار إلى الأمام على كل مثال لحساب (l) و z (l) لكل طبقة
* الحوسبة d (L) = a (L) - y (t)
* compute d (l) = (Theta (l) '• d (l + 1)) • g (z (l)) لـ l من L-1 إلى 1
* زيادة دلتا (l) بواسطة دلتا (l + 1) • a (l) '
1. سد Matrichies دلتا في matricies المشتقة الجزئية لدينا D (l) = 1 \\ m (Delta (l) + lambda • Theta (l))؛ إذا ل ل ≠ 0 D (l) = 1 \\ m • Delta (l)؛ إذا ل = 0
وبالطبع ، فإن مجرد رؤية هذه المقالة تبدو معقدة بشكل كبير ويجب ألا يتم فهمها إلا في السياقات الأكبر للشبكات العصبية والتعلم الآلي. يرجى الاطلاع على المراجع المتوقفة لفهم أفضل للموضوع ككل.
#### معلومات اكثر:
* [محاضرة 4 CS231n مقدمة في الشبكات العصبية](https://youtu.be/d14TUNcbn1k?t=354)
* [سراج رافال - العودة في 5 دقائق](https://www.youtube.com/watch?v=q555kfIFUCM)
* [أندرو نغ ML ML](https://www.coursera.org/learn/machine-learning/)
* [في العمق ، مقالة نمط ويكي](https://brilliant.org/wiki/backpropagation/)
* [Backprop على ويكيبيديا](https://en.wikipedia.org/wiki/Backpropagation)
* [وهناك خطوة خطوة على سبيل المثال Backpropagation](https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/)