BERT (מודל שפה)
ייצוגי מקודדים דו כיווניים מטרנספורמרים (באנגלית Bidirectional Encoder Representations from Transformers ראשי תיבות: BERT) היא טכניקת לימוד מכונה מבוססת טרנספורמרים המשמשת לאימון מקדים של מערכת לעיבוד שפה טבעית שפותחה על ידי גוגל . BERT נוצר ופורסם בשנת 2018 על ידי ג'ייקוב דבלין ועמיתיו מגוגל. החל מ2019, גוגל משתמשת ב-BERT כדי להבין טוב יותר את חיפושי המשתמשים. קטגוריה:בינה מלאכותית קטגוריה:בלשנות חישובית
This article "BERT (מודל שפה)" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:BERT (מודל שפה). Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.