Ml & Ai

10 אלגוריתמי למידה מעמיקה שכל חובב AI צריך לדעת

Top 10 Deep Learning Algorithms That Every Ai Enthusiast Should Know

בית מדעי הנתונים 10 אלגוריתמי למידה מעמיקה שכל חובב AI צריך לדעת על ידימהדי חסן במדעי הנתוניםML & AI 227 0

תוכן

  1. אלגוריתמים מובילים בתחום הלמידה העמוקה
    1. 01. רשת עצבית מתפתחת (CNN)
    2. 02. רשתות עצביות חוזרות (RNN)
    3. 03. רשתות זיכרון לטווח קצר (LSTM)
    4. 04. Perceptron רב שכבתי
    5. 05. Feed Forward Networks
    6. 06. בסיס רדיאלי פונקציה רשתות עצביות
    7. 07. רשתות עצביות מודולריות
    8. 08. דגמי רצף לרצף
    9. 09. מכונות בולצמן מוגבלות (RBM)
    10. 10. מקודדים אוטומטיים
  2. סוף מחשבות

למידה עמוקה היא בעצם קבוצת משנה של בינה מלאכותית ולמידת מכונה. אופייני אלגוריתמים של AI ו- ML יכול לעבוד עם מערכי נתונים בעלי כמה מאות תכונות. עם זאת, תמונה או אות עשויים להיות בעלי מיליוני תכונות. כאן נכנסים אלגוריתמי הלמידה העמוקה. רוב האלגוריתמים של DL קיבלו השראה מהמוח האנושי שנקרא הרשת העצבית המלאכותית. בעולם המודרני יש שימוש נרחב ב- Deep Learning. מהנדסה ביו -רפואית ועד לעיבוד תמונות פשוט - יש לזה שימושים. אם אתה רוצה להפוך למומחה בתחום זה, עליך לעבור על האלגוריתמים השונים של DL. ועל זה נדון היום.





אלגוריתמים מובילים בתחום הלמידה העמוקה


השימוש ב- Deep Learning גדל מאוד ברוב התחומים. למידה מעמיקה היא מעשית למדי בעבודה עם נתונים לא מובנים בגלל יכולתה לעבד כמויות אדירות של תכונות. אלגוריתמים שונים מתאימים לפתרון בעיות שונות. כדי להכיר את אלגוריתמי DL השונים, נפרט את 10 האלגוריתמים המובילים של למידת עומק שאתה צריך להכיר כחובב AI.

01. רשת עצבית מתפתחת (CNN)


CNN היא אולי הרשת העצבית הפופולרית ביותר לעיבוד תמונות. CNN בדרך כלל לוקח תמונה כקלט. הרשת העצבית מנתחת כל פיקסל בנפרד. המשקלים וההטיות של המודל משתפרים לאחר מכן כדי לזהות את האובייקט הרצוי מהתמונה. בדומה לאלגוריתמים אחרים, גם הנתונים צריכים לעבור את שלב העיבוד מראש. עם זאת, רשת CNN זקוקה לעיבוד מוקדם פחות יחסית לרוב האלגוריתמים האחרים של DL.





אלגוריתם למידה עמוקה cnn_algorithm

תכונות עיקריות



  • בכל אלגוריתם ראיית מחשב, התמונה או האות צריכים לעבור תהליך סינון. ל- CNN יש שכבות מתפתלות רבות לביצוע סינון זה.
  • לאחר השכבה המתפתלת, נשארת שכבת ReLU. הוא מייצג יחידה לינארית מתוקנת. היא מבצעת פעולות על הנתונים ומוציאה מפת תכונות מתוקנת.
  • אנו יכולים למצוא מפת תכונות מתוקנות משכבת ​​ה- ReLU. לאחר מכן הוא עובר דרך שכבת האיחוד. אז זו בעצם שיטת דגימה.
  • שכבת האיחוד מקטינה את ממד הנתונים. צמצום ממדים מייקר את תהליך הלמידה באופן יחסי.
  • שכבת האיחוד משטחת מטריצות דו-ממדיות מהווקטור התכונות המצטבר ליצירת וקטור יחיד, ארוך וממושך.
  • השכבה המחוברת במלואה מגיעה אחרי שכבת האיחוד. לשכבה המחוברת במלואה יש כמה שכבות רשת עצביות נסתרות. שכבה זו מסווגת את התמונה לקטגוריות שונות.

02. רשתות עצביות חוזרות (RNN)


RNNs הם מעין רשת עצבית שבה התוצאה מהשלב הקודם מועברת לשלב הנוכחי כקלט. עבור רשתות עצביות קלאסיות, הקלט והפלט אינם תלויים זה בזה. עם זאת, כאשר אתה צריך לחזות כל מילה במשפט, יש לשקול את המילה הקודמת. חיזוי המילה הבאה אינו אפשרי מבלי לזכור את המילה האחרונה. RNNs נכנסו לתעשייה כדי לפתור בעיות מסוג זה.

אלגוריתם למידה עמוקה של RNN_algorithm

להצטיין להסיר מקום בתחילת התא

תכונות עיקריות

  • המצב הנסתר, המאחסן פרטים מסוימים אודות מחזור, הוא המרכיב המהותי של RNN. עם זאת, המאפיינים הבסיסיים של RNN תלויים במצב זה.
  • ל- RNN יש זיכרון המאחסן את כל הנתונים אודות החישובים. היא משתמשת באותן הגדרות עבור כל ערך מכיוון שהיא מייצרת את אותה התוצאה על ידי ביצוע אותה פקודה על כל הכניסות או השכבות הנסתרות.
  • RNN מפחית את הסיבוך על ידי המרת הפעלות אוטונומיות לפעולות תלויות בכך שהוא נותן לכל הרמות את אותן הטיות ומשקלים.
  • כתוצאה מכך, הוא מפשט את תהליך הלמידה על ידי שדרוג הפרמטרים וזכירת תוצאות קודמות על ידי הזנת כל תוצאה לרמה הנסתרת הבאה.
  • יתר על כן, ניתן לשלב את כל השכבות הללו לשכבה חוזרת ונשנית, כאשר ההטיות והמשקולות של כל השכבות הנסתרות הן זהות.

03. רשתות זיכרון לטווח קצר (LSTM)


רשתות עצביות חוזרות או RNN עובדות בעצם עם נתונים הקשורים לקול. עם זאת, הם אינם פועלים היטב עם זיכרון לטווח קצר. הם יתקשו להעביר מידע משלב אחד לשלבים אחרים אם השרשרת ארוכה מספיק. אם אתה מנסה לחזות משהו ממעבר של תוכן, RNN עלול לפספס מידע קריטי. כדי לפתור בעיה זו, חוקרים פיתחו גרסה מודרנית של RNN בשם LSTM. אלגוריתם Deep Learning זה שולל את בעיית הזיכרון לטווח הקצר.

תכונות עיקריות

  • LSTMs עוקבים אחר הנתונים לאורך כל הזמן. מכיוון שהם יכולים לעקוב אחר נתוני עבר, הם בעלי ערך בפתרון בעיות של סדרות זמן.
  • ארבע שכבות פעילות משתלבות בצורה מיוחדת במערכי LSTM. כתוצאה מכך, הרשתות העצביות בעלות מבנה כמו שרשרת. מבנה זה מאפשר לאלגוריתם לחלץ מידע קטן מהתוכן.
  • מצב התא ושעריו הרבים נמצאים בלב LSTM. מצב התא משמש כנתיב תחבורה לנתונים רלוונטיים כשהוא עובר בשרשרת הרצף.
  • תיאורטית, מצב התא יכול לשמור על פרטים הכרחיים לאורך כל ביצוע הרצף. כתוצאה מכך, נתונים משלבים קודמים יכולים למצוא את דרכם לשלבי זמן עוקבים, ולהפחית את השפעות הזיכרון לטווח הקצר.
  • מלבד חיזוי סדרות זמן, אתה יכול גם להשתמש ב- LSTM בתעשיית המוזיקה, זיהוי דיבור, מחקר תרופות וכו '.

04. Perceptron רב שכבתי


נקודת כניסה לרשתות עצביות מסובכות, בהן קלט נתוני נתונים דרך רמות מרובות של נוירונים מלאכותיים. כל צומת מקושר לכל נוירון אחר בשכבה הקרובה, וכתוצאה מכך רשת עצבית מחוברת לחלוטין. שכבות הקלט והפלט זמינות, ויש ביניהן שכבה נסתרת. המשמעות היא שלכל תפקוד רב שכבתי יש שלוש שכבות לפחות. יתר על כן, יש לו שידור רב -מודאלי, מה שאומר שהוא יכול להפיץ קדימה ואחורה.

תכונות עיקריות

  • הנתונים עוברים דרך שכבת הקלט. לאחר מכן, האלגוריתם מכפיל את נתוני הקלט עם המשקלים המתאימים שלהם בשכבה הנסתרת, וההטייה מתווספת.
  • הנתונים המרובים עוברים לאחר מכן לפונקציית ההפעלה. פונקציות הפעלה שונות משמשות בהתאם לקריטריוני הקלט. לדוגמה, רוב מדעני הנתונים משתמשים בפונקציה הסיגמואידית.
  • יתר על כן, קיימת פונקציית אובדן למדידת השגיאה. הנפוצים ביותר הם אובדן יומן, שגיאה ממוצעת בריבוע, דירוג דיוק וכו '.
  • בנוסף, אלגוריתם Deep Learning משתמש בטכניקת הפצת הגב כדי לצמצם את ההפסד. המשקולות וההטיות משתנות לאחר מכן באמצעות טכניקה זו.
  • הטכניקה נמשכת עד שההפסד הופך למינימום. בהפסד מינימלי, תהליך הלמידה אמור להסתיים.
  • לתפקוד הרב שכבתי יש שימושים רבים, כגון סיווג מורכב, זיהוי דיבור, תרגום מכונה וכו '.

05. Feed Forward Networks


הסוג הבסיסי ביותר של רשת עצבית, שבו מידע קלט הולך בכיוון אחד בלבד, נכנס דרך צמתים עצביים מלאכותיים ויוצא דרך צמתים פלט. באזורים בהם יחידות נסתרות עשויות להיות נוכחות ובין אם לא, קיימות שכבות נכנסות ויוצאות. בהסתמך על זה, אפשר לסווג אותם כרשת עצבית של feedforward רב שכבתית או חד שכבתית. מכיוון של- FFNN יש ארכיטקטורה פשוטה, הפשטות שלהם יכולה להיות יתרון ביישומים מסוימים של למידת מכונה.

feed_forward_neural_networks

תכונות עיקריות

  • התחכום של הפונקציה קובע את מספר השכבות. השידור כלפי מעלה אינו חד כיווני, אך אין התפשטות לאחור.
  • יתר על כן, המשקולות קבועות. הכניסות משולבות עם משקולות ונשלחות לפונקציית הפעלה. פונקציית סיווג או הפעלת צעדים משמשת לשם כך.
  • אם תוספת הקריאות היא יותר מסף שנקבע מראש, אשר בדרך כלל נקבע לאפס, התוצאה היא בדרך כלל 1. אם הסכום קטן מהסף, ערך הפלט הוא בדרך כלל -1.
  • אלגוריתם הלמידה העמוקה עשוי להעריך את תוצאות הצמתים שלו עם הנתונים הרצויים באמצעות טכניקה הידועה בשם חוק הדלתא, ומאפשר למערכת לשנות את משקולותיה במהלך הלמידה ליצירת ערכי פלט מדויקים יותר.
  • עם זאת, לאלגוריתם אין שכבות צפופות והתפשטות לאחור, שאינה מתאימה לבעיות יקרות בחישוב.

06. בסיס רדיאלי פונקציה רשתות עצביות


פונקציית בסיס רדיאלי מנתחת כל טווח של נקודה מהמרכז. ישנן שתי רמות לרשתות העצביות הללו. ראשית, התכונות מתמזגות עם פונקציית הבסיס הרדיאלי בשכבה הפנימית. לאחר מכן, כאשר מחשבים את אותה התוצאה בשכבה הבאה, נחשב הפלט של התכונות הללו. בנוסף לכך, לשכבת הפלט יש נוירון אחד לכל קטגוריה. האלגוריתם משתמש בדמיון הקלט לדגימת נקודות מנתוני האימון, כאשר כל נוירון שומר על אב טיפוס.

תכונות עיקריות

  • כל נוירון מודד את המרחק האוקלידי בין אב הטיפוס לכניסה כאשר יש לסווג וקטור קלט טרי, כלומר הווקטור n-ממדי שאתה מנסה לסווג.
  • לאחר השוואת וקטור הקלט לאב -הטיפוס, האלגוריתם מספק פלט. הפלט בדרך כלל נע בין 0 ל -1.
  • הפלט של אותו נוירון RBF יהיה 1 כאשר הקלט תואם את אב הטיפוס, וככל שהמרווח בין האב -טיפוס לקלט יגדל, התוצאות ינועו לאפס.
  • העקומה הנוצרת על ידי הפעלת נוירון דומה לעקומת פעמון סטנדרטית. קבוצת נוירונים מהווה את שכבת הפלט.
  • במערכות שיקום חשמל, מהנדסים משתמשים לעתים קרובות ברשת העצבית בתפקוד הבסיס הרדיאלי. בניסיון לשקם את הכוח בפרק הזמן הנמוך ביותר, אנשים משתמשים ברשת עצבית זו במערכות שיקום חשמל.

07. רשתות עצביות מודולריות


רשתות עצביות מודולריות משלבות מספר רשתות עצביות כדי לפתור בעיה. במקרה זה, הרשתות העצביות השונות פועלות כמודולים, כל אחת פותרת חלק מהבעיה. אינטגרטור אחראי על חלוקת הנושא למספר מודולים וכן שילוב התשובות של המודולים ליצירת הפלט האולטימטיבי של התוכנית.

ANN פשוט אינו יכול לספק ביצועים הולמים במקרים רבים כתגובה לבעיה ולצרכים. כתוצאה מכך, אנו עשויים לדרוש מספר ANNs להתמודד עם אותו האתגר. רשתות עצביות מודולריות ממש נהדרות לעשות זאת.

אלגוריתמים למידה עמוקה של feed_forward_neural_networks

תכונות עיקריות

  • ANNs שונים משמשים כמודולים ב- MNN לטיפול בבעיה כולה. כל ANN מסמל מודול ואחראי להתמודד עם היבט מסוים של הבעיה.
  • שיטה זו גוררת מאמץ שיתופי בין מספר ה- ANN הרבים. המטרה בהישג יד היא לחלק את הבעיה למודולים שונים.
  • כל ANN או מודול מסופק עם קלט מסוים בהתאם לתפקודו. המודולים הרבים מתמודדים כל אחד עם הרכיב שלו בבעיה. אלה התוכניות שמחשבות את הממצאים.
  • אינטגרטור מקבל את התוצאות המנותחות. תפקידו של האינטגרטור הוא לשלב את התשובות האישיות הרבות ממספר ה- ANN הרבים ולייצר תשובה משולבת המשמשת תפוקת המערכת.
  • מכאן שאלגוריתם ה- Deep Learning פותר את הבעיות בשיטה דו-חלקית. לרוע המזל, למרות שימושים רבים, הוא אינו מתאים להובלת בעיות מטרה.

08. דגמי רצף לרצף


שתי רשתות עצביות חוזרות יוצרות מודל רצף לרצף. יש כאן מקודד לעיבוד הנתונים ומפענח לעיבוד התוצאה. המקודד והמפענח פועלים שניהם במקביל, תוך שימוש באותם פרמטרים או נפרדים.

בניגוד ל- RNN האמיתי, מודל זה שימושי במיוחד כאשר כמות נתוני הקלט וגודל נתוני הפלט שווים. מודלים אלה משמשים בעיקר במערכות לענות שאלות, תרגומי מכונה וצ'אט בוטים. עם זאת, היתרונות והחסרונות דומים לזה של RNN.

תכונות עיקריות

  • ארכיטקטורת מקודד-מפענח היא השיטה הבסיסית ביותר לייצור המודל. הסיבה לכך היא שהמקודד והמפענח הם למעשה דגמי LSTM.
  • נתוני הקלט עוברים למקודד, והם הופכים את כל קלט הנתונים לכדי וקטורים של מצב פנימי.
  • וקטור הקשר זה מבקש להקיף את הנתונים עבור כל פריטי הקלט כדי לסייע למפענח לבצע תחזיות נכונות.
  • בנוסף, המפענח הוא LSTM שערכי ההתחלה שלו נמצאים תמיד בערכי הטרמינל של ה- Encoder LSTM, כלומר, וקטור ההקשר של התא האחרון של המקודד נכנס לתא הראשון של המפענח.
  • המפענח מייצר את וקטור הפלט באמצעות מצבי התחלה אלה, והוא לוקח בחשבון את התוצאות הללו לתגובות הבאות.

09. מכונות בולצמן מוגבלות (RBM)


ג'פרי הינטון פיתח לראשונה מכונות בולצמן מוגבלות. RBM הם רשתות עצביות סטוכסטיות שיכולות ללמוד מהתפלגות הסתברותית על אוסף נתונים. לאלגוריתם הלמידה העמוקה הזה יש שימושים רבים כמו למידת תכונה, הפחתת ממדיות של סינון שיתופי, סיווג, דוגמנות נושאים ורגרסיה.

RBM מייצרים את המבנה הבסיסי של רשתות אמונה עמוקה. כמו אלגוריתמים רבים אחרים, יש להם שתי שכבות: היחידה הנראית והיחידה הנסתרת. כל יחידה גלויה מצטרפת לכל היחידות הנסתרות.

אלגוריתם למידה עמוקה rbm_algorithm

כתיבה אם אז הצהרות במצטיין

תכונות עיקריות

  • האלגוריתם בעצם עובד עם שילוב של שני שלבים. אלה המעבר קדימה ומעבר אחורה.
  • במעבר קדימה, RBM מקבלים את הנתונים וממירים אותם לסט מספרים המקודד את התשומות.
  • RBM משלב כל קלט עם שקלול משלו והטייה כוללת אחת. לבסוף, הפלט מועבר לשכבה הנסתרת על ידי הטכניקה.
  • RBM רוכשים את אוסף המספרים השלמים והופכים אותם ליצירת התשומות המשוחזרות במעבר לאחור.
  • הם מערבבים כל הפעלה עם המשקל שלה והטייה כוללת לפני שהם מעבירים את התוצאה לשכבה הגלויה לבנייה מחדש.
  • ה- RBM מנתח את הנתונים המשוחזרים לקלט בפועל בשכבה הגלויה כדי להעריך את יעילות הפלט.

10. מקודדים אוטומטיים


מקודדים אוטומטיים הם אכן מעין רשת עצבית של feedforward שבה הקלט והפלט דומים. בשנות השמונים, ג'פרי הינטון יצר קודים אוטומטיים להתמודדות עם קשיי למידה ללא פיקוח. הן רשתות עצביות שחוזרות על תשומות משכבת ​​הקלט לשכבת הפלט. למקודדים אוטומטיים יש מגוון יישומים, כולל גילוי תרופות, עיבוד תמונות וחיזוי פופולריות.

Deep-Autoencoder-DAE

תכונות עיקריות

  • שלוש שכבות מהוות את ה- Autoencoder. הם מקודד המקודד, הקוד והמפענח.
  • העיצוב של Autoencoder מאפשר לו לקלוט מידע ולהפוך אותו לקונטקסט אחר. ואז הם מנסים לשחזר את הקלט האמיתי בצורה המדויקת ביותר האפשרית.
  • לפעמים, מדעני נתונים משתמשים בו כמודל סינון או פילוח. לדוגמה, נניח שהתמונה אינה ברורה. לאחר מכן, תוכל להשתמש במקודד אוטומטי כדי להפיק תמונה ברורה.
  • קודנים אוטומטיים מקודדים את התמונה תחילה ולאחר מכן דוחסים את הנתונים לצורה קטנה יותר.
  • לבסוף, ה- Autoencoder מפענח את התמונה, המייצרת את התמונה המשוחזרת.
  • ישנם סוגים שונים של מקודדים, שלכל אחד מהם יש את השימוש שלו.

סוף מחשבות


במהלך חמש השנים האחרונות, אלגוריתמים של Deep Learning גדלו בפופולריות במגוון רחב של עסקים. רשתות עצביות שונות זמינות, והן פועלות בדרכים נפרדות לייצר תוצאות נפרדות.

עם נתונים ושימוש נוספים, הם ילמדו ויתפתחו עוד יותר. כל התכונות הללו הפכו את הלמידה העמוקה למפורסמת בקרב מדעני נתונים. אם אתה רוצה לצלול לעולם הראייה הממוחשבת ועיבוד התמונה, עליך לקבל מושג טוב על האלגוריתמים הללו.

לכן, אם אתה רוצה להיכנס לתחום המרתק של מדעי הנתונים ולרכוש יותר ידע על אלגוריתמים של למידה עמוקה, התחל בעיון ועבור על המאמר. המאמר נותן מושג לגבי האלגוריתמים המפורסמים ביותר בתחום זה. כמובן שלא יכולנו לרשום את כל האלגוריתמים אלא רק את החשובים. אם אתה חושב שפספסנו משהו, הודע לנו על ידי תגובה למטה.

לַחֲלוֹק פייסבוק טוויטר פינטרסט ווטסאפ ReddIt מִברָק Viber

    השאר תגובה בטל תגובה

    הערה: אנא הכנס את תגובתך! שם:* אנא הכנס את שמך כאן דוא'ל:* הזנת כתובת דוא'ל שגויה! אנא הכנס את כתובת הדוא'ל שלך כאן אתר אינטרנט:

    שמור את שמי, כתובת הדוא'ל והאתר שלי בדפדפן זה בפעם הבאה שאגיב.

    נקודה_אימג

    הפרסום האחרון

    דְמוּי אָדָם

    10 אפליקציות החלפת הפנים הטובות ביותר למכשירי Android ו- iOS

    מערכת הפעלה של Windows

    כיצד לתזמן את Windows 10 לרוקן את סל המיחזור באופן אוטומטי

    דְמוּי אָדָם

    10 אפליקציות החיוב הטובות ביותר למכשיר אנדרואיד כדי לקבל תשלום מהיר

    מערכת הפעלה של Windows

    10 תוכנות ה- Benchmark Benchmark הטובות ביותר למחשב האישי שלך

    חייב לקרוא

    מדעי הנתונים

    20 הכלים הטובים ביותר להדמיית נתונים שכל מדען נתונים צריך

    ML & AI

    10 שפות התכנות הטובות ביותר לבינה מלאכותית ולמידה מכונה

    ML & AI

    20 אלגוריתמים, שיטות וטכניקות AI ולמידת מכונה מובילות

    מדעי הנתונים

    מדעי הנתונים מול למידת מכונה: 15 הדברים הטובים ביותר שאתה צריך לדעת

    פוסט קשור

    10 רעיונות למיזמי עומק המובילים למתחילים ולמקצוענים

    10 מגמות הלמידה העמוקה המתעוררות לצפייה בעתיד הקרוב

    10 מושגים עיקריים של IoT לעומת M2M שעליך להבין

    10 האוטומציה הביתית הטובה ביותר באמצעות IoT (אינטרנט של דברים)

    10 ממשקי המשתמש הגרפיים הטובים ביותר לתכנות עבור R

    10 המגמות הטובות ביותר לעיבוד שפות טבעיות (NLP) להמשך קדימה



    ^