You can edit almost every page by Creating an account. Otherwise, see the FAQ.

BERT (מודל שפה)

מתוך EverybodyWiki Bios & Wiki
קפיצה אל:ניווט, חיפוש

ייצוגי מקודדים דו כיווניים מטרנספורמריםאנגלית Bidirectional Encoder Representations from Transformers ראשי תיבות: BERT) היא טכניקת לימוד מכונה מבוססת טרנספורמרים המשמשת לאימון מקדים של מערכת לעיבוד שפה טבעית שפותחה על ידי גוגל . BERT נוצר ופורסם בשנת 2018 על ידי ג'ייקוב דבלין ועמיתיו מגוגל. החל מ2019, גוגל משתמשת ב-BERT כדי להבין טוב יותר את חיפושי המשתמשים. קטגוריה:בינה מלאכותית קטגוריה:בלשנות חישובית


This article "BERT (מודל שפה)" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:BERT (מודל שפה). Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.



Read or create/edit this page in another language[עריכה]