You can edit almost every page by Creating an account. Otherwise, see the FAQ.

אסדרה של בינה מלאכותית בישראל

מתוך EverybodyWiki Bios & Wiki
קפיצה אל:ניווט, חיפוש

רקע היסטורי[עריכה]

מומחים ותומכים בבינה מלאכותית אחראית, אתיקה בבינה מלאכותית, הגנת הצרכן וביטחון סייבר קוראים להקים מעקות בטיחות סביב פיתוח הבינה המלאכותית מאז שנות ה-60[1]. בשנת 2017, אילון מאסק קרא לרגולציה של פיתוח בינה מלאכותית. לפי NPR, מנכ"ל טסלה לא היה מרוצה מכך שהוא נאלץ לתמוך בפיקוח ממשלתי שעשוי להשפיע על תעשייתו, אך הוא סבר שהסיכונים שבהיעדר פיקוח כללי גבוהים מדי: "בדרך כלל, רגולציות מוקמות כאשר קורות דברים רעים, יש קריאות ציבור ולאחר שנים רבות מוקמת רשות רגולטורית שמפקחת על אותה תעשייה. זה לוקח הרבה זמן. זה בעבר היה רע אבל לא משהו שהציג סיכון יסודי לקיום הציוויליזציה.[2]" בתגובה, חלק מהפוליטיקאים הביעו ספק בלבצע אסדרה על טכנולוגיה שעדיין בפיתוח[3]. בתגובה גם למאסק וגם להצעות מפברואר 2017 של חוקים אירופאים לאסדרה של בינה מלאכותית ורובוטיקה, בריאן קרזניץ, מנכ"ל אינטל, טען שהבינה המלאכותית עדיין בחיתולים ושזה מוקדם מדי לבצע אסדרה בטכנולוגיה[4]. חברות טכנולוגיה רבות מתנגדות לאסדרה קשה על בינה מלאכותית ו"למרות שחלק מהחברות אמרו שהן מברכות על כללים לגבי בינה מלאכותית, הן גם התנגדו לרגולציות קשות כמו אלו שנוצרות באירופה"[5]. במקום לנסות לבצע אסדרה בטכנולוגיה עצמה, חלק מהאקדמאים הציעו לפתח נורמות משותפות כולל דרישות לבדיקות ושקיפות של אלגוריתמים, אולי בשילוב עם סוג של אזהרות לגבי מי שיפר זאת[6].

בסקר של Ipsos משנת 2022, היחסים כלפי בינה מלאכותית השתנו מאוד בין מדינה למדינה; 78% מהסינים, אך רק 35% מהאמריקאים, הסכימו ש"מוצרים ושירותים המשתמשים בבינה מלאכותית מציעים יותר יתרונות מחסרונות"[7]. סקר של רויטרס/Ipsos משנת 2023 מצא ש-61% מהאמריקאים מסכימים, ו-22% לא מסכימים, שבינה מלאכותית מהווה סיכון לאנושות.[8] בסקר של פוקס ניוז משנת 2023, 35% מהאמריקאים חשבו שזה "חשוב מאוד", ו-41% נוספים חשבו שזה "די חשוב", שהממשל הפדרלי יבצע אסדרה בבינה מלאכותית, לעומת 13% שענו שזה "לא חשוב במיוחד" ו-8% שענו שזה "בכלל לא חשוב"[9][10].

גישות שונות לאסדרה (רגולציה)[עריכה]

אסדרה של בינה מלאכותית תעשה על-ידי פיתוח חוקים ומדיניות ציבורית לקידום והסדרת השימוש בבינה מלאכותית[11], אסדרה שכזו נחשבת הכרחית הן לעידוד בינה מלאכותית והן לניהול הסיכונים הנלווים[12][13][14]. שיקולי מנהל ציבורי ומדיניות מתמקדים בדרך כלל בהשלכות הטכניות והכלכליות ובמערכות בינה מלאכותית אמינות וממוקדות באדם[15], אם כי גם רגולציה של אינטליגנציות-על מלאכותיות נחשבת[16]. הגישה הבסיסית לרגולציה מתמקדת בסיכונים ובהטיות של אלגוריתמים של למידת מכונה- ברמת נתוני הקלט, בדיקות האלגוריתמים ומודל קבלת ההחלטות, כמו גם ביכולת להסביר את הפלט המתקבל[14].

גישה אחת לכונן אסדרה של בינה מלאכותי היא על ידי חקיקה[17], הקושי הגדול של גישה זו נובע מהעובדה שהטכנולוגיה מתקדמת במהירות גדולה משמעותית מהיכולת של המחוקק ותהליכי החקיקה ״להדביק את הקצב״, מה שמוביל למערכת חוקים ותקנות מסורתית שאינה מעודכנת ואינה מקיפה דיה[18]. מנגד, גישה ״רכה״ יותר[19], המתבססת על מדיניות, כללי אתיקה ופרשנות מאפשרת שינוי והתאמה בזמן קצר מה שעונה על הצרכים של טכנולוגיה מתפתחת ויישומים המבוססים עליה. עם זאת, החיסרון של הגישה הרכה הוא החוסר בפוטנציאל אכיפה[20][21].

גישה נוספת, היא מינוף זכויות קניין רוחני (כלומר, רישוי copyleft) באובייקטים מסוימים של בינה מלאכותית והאצלת זכויות אכיפה לגורמי אכיפה ייעודיים ממשלתיים או אחרים. למשל, זכויות קניין רוחני על המודלים עצמם או מערכי המידע (דאטה-סט) בעזרתם הם אומנו. לפי גישה זו השימוש בבינה מלאכותית יהיה כפוף לרישיון בתנאים הדורשים הקפדה על כללי אתיקה וקודים התנהגותיים המוגדרים מראש[22].

בנובמבר 2021 במאמר שפורסם בוול סטריט ז׳ורנל קראו הנרי קיסינג'ר, אריק שמידט ודניאל האטנלוצ'ר הצהרה משותפת בשם "להיות אנושי בעידן של בינה מלאכותית", הקוראת לוועדה ממשלתית לאסדרה של בינה מלאכותית[23].

אסדרה של בינה מלאכותית בעולם[עריכה]

בראייה גלובלית[עריכה]

הרעיון של מועצת ממשל גלובלית להסדרת פיתוח בינה מלאכותית הועלה לפחות כבר ב-2017[24]. בדצמבר 2018, קנדה וצרפת הכריזו על תוכניות לפאנל בינלאומי בנושא בינה מלאכותית בתמיכת G7, לפי מודל של הפאנל הבינלאומי לשינויי אקלים, כדי לחקור את ההשפעות העולמיות של בינה מלאכותית על אנשים וכלכלות וכדי לכוון את פיתוח הבינה המלאכותית[25]. בשנת 2019 שונה שם הפאנל לשותפות הגלובלית בנושא בינה מלאכותית[26][27].

השותפות הגלובלית לבינה מלאכותית (GPAI) הושקה ביוני 2020, והצהירה על צורך בפיתוח בינה מלאכותית בהתאם לזכויות אדם ולערכים דמוקרטיים, כדי להבטיח את אמון הציבור בטכנולוגיה[28]. 15 החברים המייסדים של השותפות העולמית לבינה מלאכותית הם אוסטרליה, קנדה, האיחוד האירופי, צרפת, גרמניה, הודו, איטליה, יפן, קוריאה, מקסיקו, ניו זילנד, סינגפור, סלובניה, ארצות הברית ובריטניה.

בשנת 2023, ל-GPAI יש 29 חברים[29]. מזכירות GPAI מתארחת על ידי ה-OECD בפריז, צרפת. המנדט של GPAI מכסה ארבעה נושאים, בינה מלכותית אחראית, ממשל נתונים (data governance), עתיד שוק העבודה, וחדשנות ומסחור. בנוסף GPAI גם חקרה כיצד ניתן למנף בינה מלאכותית כדי להגיב למגפת הקורונה[28].

יוזמה של איגוד הטלקומוניקציה הבינלאומי (ITU) בשיתוף עם 40 סוכנויות אחיות של האו"ם, AI for Good היא פלטפורמה גלובלית שמטרתה לזהות יישומים מעשיים של AI לקידום יעדי הפיתוח בר-קיימא של האו"ם ולהרחיב את הפתרונות הללו להשפעה גלובלית. זוהי פלטפורמה מכוונת פעולה, גלובלית ומכילה של האומות המאוחדות המטפחת פיתוח של בינה מלאכותית להשפעה חיובית על בריאות, אקלים, מגדר, שגשוג כולל, תשתית בת קיימא וסדרי עדיפויות פיתוח גלובליים אחרים.

צפוי שגם מדינות יתחילו להשתמש בבינה מלאכותית ככלי להגנת סייבר לאומית. לכן, אנשי אקדמיה קוראים למדינות לקבוע תקנות לשימוש בבינה מלאכותית, בדומה לאופן שבו יש תקנות לתעשיות צבאיות אחרות[30].

ברמת המדינה, מדינות שונות התייחסו לבעיה בדרכים שונות. לגבי שלוש הכלכלות הגדולות, נאמר כי "ארצות הברית נוקטת בגישה מונעת שוק, סין מקדמת גישה מונעת על ידי מדינה, והאיחוד האירופי נוקט בגישה מונעת זכויות."[31]

ארצות הברית[עריכה]

בארה״ב אמנם אין מסגרת פדרלית מקיפה לרגולציה של בינה מלאכותית, אך ישנם מאמצים ברמה הפדרלית והמדינה לטפל בסיכונים ספציפיים ובחששות אתיים הקשורים לבינה מלאכותית. מאמצים מוקדמים עוד בתקופת ממשל אובמה התמקדו בסיכונים ובתקנות של בינה מלאכותית בשנת 2016[32]. הדו"ח הראשי הראשון היה התוכנית הלאומית למחקר ופיתוח אסטרטגיים לבינה מלאכותית ב-2018.[33]

בשנת 2019 פרסם הבית הלבן טיוטת הנחיה להסדרה של יישומי בינה מלאכותית והוקמה הוועדה לביטחון לאומי לבינה מלאכותית "כדי לשקול את השיטות והאמצעים הדרושים לקידום פיתוח הבינה המלאכותית, למידת מכונה וטכנולוגיות נלוות כדי לתת מענה מקיף לצורכי הביטחון הלאומי וההגנה של ארצות הברית". הנשיא ביידן חתם על צו ביצוע בנושא בינה מלאכותית בטוחה, מאובטחת ומהימנה בשנת 2023.[34]

ברמת המדינה ישנם מאמצים להסדרת השימוש בבינה מלאכותית, עיריית ניו יורק חוקקה את חוק ביקורת ההטיה בשנת 2021 כדי לטפל בהטיה אלגוריתמית בגיוס עובדים[35]. טנסי חוקקה את חוק ELVIS בשנת 2024 כדי להסדיר זיופים עמוקים ושיבוט קול[36][37].

כמו כן ישנם מאמצים של סוכנויות ספציפיות בתחום אחריותן. לדוגמה מינהל המזון והתרופות המסדיר את השימוש בבינה מלאכותית בהדמיה רפואית[38][39] או המכון הלאומי לתקנים וטכנולוגיה שפרסם נייר עמדה על רגולציה של בינה מלאכותית[40].

בנוסף, מתוך הגישה מונעת שוק, ישנן יוזמות והתחייבויות וולונטריות של חברות טכנולוגיה להבטיח ניהול סיכונים של שימוש בלתי אחראי בבינה מלאכותית. ביולי 2023, ממשל ביידן-האריס השיג התחייבויות וולונטריות משבע חברות - אמזון, אנתרופיק, גוגל, אינפלקשן, מטא, מיקרוסופט ו-OpenAI - לנהל את הסיכונים הקשורים לבינה מלאכותית. החברות התחייבו להבטיח שמוצרי בינה מלאכותית יעברו בדיקות אבטחה פנימיות וחיצוניות לפני פרסום פומבי; לשתף מידע על ניהול סיכוני בינה מלאכותית עם התעשייה, ממשלות, החברה האזרחית והאקדמיה; לתת עדיפות לאבטחת סייבר ולהגן על רכיבי מערכת בינה מלאכותית קניינית; לפתח מנגנונים ליידע את המשתמשים כאשר תוכן נוצר בינה מלאכותית, כגון סימון מים; לדווח בפומבי על היכולות, המגבלות ותחומי השימוש של מערכות ה-AI שלהם; לתת עדיפות למחקר על סיכונים חברתיים הנשקפים מ-AI, כולל הטיה, אפליה ודאגות לפרטיות; ולפתח מערכות בינה מלאכותית כדי להתמודד עם אתגרים חברתיים, החל ממניעת סרטן ועד להפחתת שינויי אקלים. בספטמבר 2023, שמונה חברות נוספות - Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI ו-Stability AI - חתמו אף הן על התחייבויות וולונטריות אלה[41][42].

האיחוד האירופי[עריכה]

האיחוד האירופי הוא אחד מתחומי השיפוט הגדולים בעולם והוא ממלא תפקיד פעיל ברגולציה העולמית של טכנולוגיה דיגיטלית באמצעות GDPR[43][44]Digital Services Act ,Digital Markets Act[45]. בפרט עבור בינה מלאכותית, חוק הבינה המלאכותית נחשב בשנת 2023 לרגולציה מרחיקת הלכת של AI ברחבי העולם[46][47].

לרוב מדינות האיחוד האירופי (EU) יש אסטרטגיות לאומיות משלהן להסדרת בינה מלאכותית, אך הן מתכנסות במידה רבה[48]. האיחוד האירופי מונחה על ידי אסטרטגיה אירופית בנושא בינה מלאכותית[49], הנתמכת על ידי קבוצת מומחים לבינה מלאכותית.[93] [94] באפריל 2019, הנציבות האירופית פרסמה את הנחיות האתיקה שלה לבינה מלאכותית מהימנה (AI)[50], בעקבות זאת עם המדיניות והמלצות ההשקעה שלה לבינה מלאכותית מהימנה ביוני 2019[51]. קבוצת המומחים של נציבות האיחוד האירופי בנושא בינה מלאכותית מבצעת עבודה על מהימנות של בינה מלאכותית, והנציבות פרסמה דוחות על היבטי הבטיחות והאחריות של AI ועל האתיקה של כלי רכב אוטומטיים.

בפברואר 2020 פרסמה הנציבות האירופית מאמר (whitepaper) על בינה מלאכותית[52][53][54] המתאר את גישת "אקוסיסטמה של מצוינות" ו"אקוסיסטמה של אמון", האחרון התמקד במסגרת רגולטורית עתידית עבור בינה מלאכותית, במיוחד עבור יישומים בסיכון גבוה בתחומים כמו בריאות, תחבורה ואנרגיה. יישומים אלה יהיו כפופים לדרישות לגבי נתוני הכשרה, שמירה על תיעוד, אספקת מידע, חוסן, דיוק ופיקוח אנושי.

טיוטת הרגולציה הודלפה באפריל 2021[55], ואחריה ההצעה הרשמית במאי 2021. חוק הבינה המלאכותית הסופי (Artificial Intelligence Act) אומץ ביוני 2023[56]. הוא מתבסס על הגישה מבוססת הסיכון, ומגדיר ארבע קטגוריות סיכון: מינימלי, מוגבל, גבוה ובלתי מקובל[57].

החוק זכה לביקורת על הגדרותיו הלא ברורות והשלכות שליליות אפשריות על קבוצות פגיעות. עם זאת, הוא צפוי להיכנס לתוקף בסוף 2025 או בתחילת 2026[58], ויביא תקנות על פיתוח, פריסה ושימוש בבינה מלאכותית ברחבי האיחוד האירופי. יש לציין כי החוק אוסר באופן כללי את השימוש בזיהוי רגשות ובזיהוי ביומטרי, עם חריגים צרים לאכיפת החוק[59].

סין[עריכה]

רגולציה על בינה מלאכותית בסין נשלטת בעיקר על ידי החלטת מועצת המדינה של הרפובליקה העממית של סין מ-8 ביולי 2017 "תוכנית פיתוח בינה מלאכותית של הדור הבא" (מסמך מועצת המדינה מס' 35), שבה הוועד המרכזי של המפלגה הסינית הקומוניסטית ומועצת המדינה של סין דחקו בגופים המנהלים של סין לקדם את הפיתוח של בינה מלאכותית עד 2030. הרגולציה של נושאי התמיכה האתית והמשפטית לפיתוח בינה מלאכותית מואצת, והמדיניות מבטיחה שליטה של המדינה בחברות סיניות על נתונים יקרי ערך, כולל אחסון נתונים על משתמשים סיניים בתוך המדינה ושימוש חובה בסטנדרטים הלאומיים של הרפובליקה העממית של סין עבור בינה מלאכותית, כולל על ביג דאטה, מחשוב ענן ותוכנות תעשייתיות[60][61][62]. בשנת 2021, סין פרסמה קווים מנחים אתיים לשימוש בבינה מלאכותית בסין, הקובעת כי על החוקרים להבטיח שהבינה המלאכותית עומדת בערכים אנושיים משותפים, נמצאת תמיד בשליטה אנושית ואינה מסכנת את ביטחון הציבור. בשנת 2023, סין הציגה אמצעי ביניים לניהול שירותי בינה מלאכותית[63].

מדינות נוספות אחרות[עריכה]

נוף הרגולציה והמדיניות של בינה מלאכותית הוא נושא מתפתח בתחומי שיפוט אזוריים ולאומיים ברחבי העולם. באוסטרליה, ברזיל, קנדה, גרמניה, איטליה, ספרד ובריטניה עשו הממשלות מאמצים להסדיר ולשלוט בשימוש בבינה מלאכותית. בעוד שהפרטים הספציפיים של הגישה של כל מדינה לבינה מלאכותית עשויים להשתנות כולן נוקטות בצעדים מעשיים כדי לקדם שימוש אחראי ומועיל בבינה מלאכותית.

חלק מהצעדים הספציפיים שמדינות אלו נקטו כוללים: יצירת קווים מנחים אתיים עבור בינה מלאכותית המבטיחים שימוש בבינה מלאכותית בצורה אחראית ואתית, אסדרה של בינה מלאכותית ופיתוח חוקים ותקנות כדי להבטיח שימוש בטוח ויעיל בבינה מלאכותית. טיפול בהשפעה החברתית והכלכלית הפוטנציאלית של בינה מלאכותית, ומתכוננות לדרכים שבהן בינה מלאכותית עשויה לשנות את החברה והכלכלה בעתיד.

בישראל[עריכה]

בעידן הדיגיטלי, ישראל מתמודדת עם אתגרים רגולטוריים מורכבים הקשורים לפיתוח ושימוש בבינה מלאכותית. השינויים הטכנולוגיים מחייבים התאמות במשפט וברגולציה, תהליך שאינו פשוט ודורש גם חקיקה חדשה וגם פרשנות מחודשת לחוקים קיימים.

מערכת המשפט והתמודדותה עם קצב ההתפתחות הטכנולוגית[עריכה]

במהלך העשורים האחרונים, המערכת המשפטית בישראל פועלת להתאים את עצמה לקצב המהיר של הטכנולוגיה. השופט סולברג עמד על הקושי הזה בבירור בפרשת איגוד האינטרנט הישראלי, כאשר אמר:

"בידוע, כי המשפט מדדה בעצלתיים אחר חידושי העולם, וכי החקיקה אינה מדביקה את קצב התקדמות המדע ויׂשּומיו. מפרי -החוק מסתגלים לקידמה מהר יותר מאוכפיו. זו אקסיומה. לראשונים אין עּכבות; לאחרונים יש. שנים רבות חלפו מעת המצאת המחשב ועד לחקיקת חוק המחשבים, התשנ"ה- .1995 לא חלפו אז דור או שניים במונחי מחשב, והחוק כבר נמצא מיושן, כי המחוקק לא צפה – ולא יכל לצפות – את חידושי הטכנולוגיה. אך לא רק עולם המשפט עומד נבוך. גם מדע הפסיכולוגיה נתקל בתופעות חדשות של התמכרות ופגיעות בנפש, ומנסה ללמוד דרכי התמודדות עדכניות 'תוך כדי תנועה'; כך גם הסוציולוגיה, ושאר ענפים מתחום מדעי החברה, הטבע והרוח. אין תימה אפוא שגם עולם המשפט איננו ערוך עדיין עם מלוא הכלים העומדים לרשותו. אין לכחד: הסדרה חוקית של הנעשה במרחב הווירטואלי היא מורכבת ומסובכת. קשה להגדיר את הדין הרצוי, וגם לא בנקל ניתן להחיל את הדין המצוי. לא בכדי יש שהגיעו למסקנה כי מדובר בתחום שראוי להסדרה חוקית; יש הסבורים כי הפסיקה היא המסגרת הראויה לעשיית ההתאמות הנדרשות לעידן האינטרנט; ואלה ואלה מתלבטים גם לגבי מידת השיתוף של קהילת משתמשי האינטרנט בעיצוב הכללים במרחב הווירטואלי וביישומם".[64]

הדין והאסדרה בהיבטי בינה מלאכותית[עריכה]

כמו בעולם גם בישראל פרסם משרד החדשנות המדע והטכנולוגיה בשיתוף עם משרד המשפטים מסמך עקרונות מדיניות רגולציה ואתיקה[65]. המסמך פורסם בדצמבר 2023 לאחר כשנה של איסוף ובחינה של הערות הציבור והוא מהווה מסמך סופי המציע את מדיניות הרגולציה והאתיקה של ממשלת ישראל בתחום הבינה המלאכותית.

מסמך העקרונות מציע לאמץ עקרונות אתיים משותפים עבור תחום הבינה המלאכותית בישראל, על בסיס עקרונות ה-OECD בהתאמות שונות, וזאת בשים לב לתפיסה הכוללת שלפיה יש לפעול ככלל בהתאם למדיניות המקובלת במדינות המפותחות בעולם. העקרונות האתיים המוצעים הם:

  1. בינה מלאכותית לקידום צמיחה, פיתוח בר קיימא ומובילות ישראלית בחדשנות
  2. האדם במרכז: כיבוד זכויות יסוד ואינטרסים ציבוריים
  3. שוויון ומניעת אפליה פסולה
  4. שקיפות והסברתיות
  5. אמינות, עמידות, אבטחה ובטיחות
  6. אחריותיות

עקרונות אלה משקפים היבטים בהם ראוי להתחשב במסגרת פיתוח ושימוש בבינה מלאכותית ובעת קביעת אסדרה בתחום זה.

דיני זכויות יוצרים[עריכה]

חוק זכות יוצרים בישראל מתמודד עם אתגרים חדשים שנובעים מהשימוש בבינה מלאכותית, כאשר נדרשים פתרונות לשאלות של גישה לנתונים ושימוש בהם ללא הפרת זכויות. בהקשר של בינה מלאכותית, דיני זכויות יוצרים בישראל נוגעים לאופן שבו ניתן להשתמש בתכנים לאימון מערכות מלאכותיות. איכות מערכת הבינה המלאכותית תלויה באיכות ובגיוון הנתונים המוזנים אליה. תכנים לא מוגנים יכולים לשמש באופן חופשי, אך לעיתים קרובות יש צורך להשתמש גם בתכנים מוגנים בזכויות יוצרים, דבר שעשוי ליצור מכשול משפטי. בנובמבר 2022, משרד המשפטים - מחלקת ייעוץ וחקיקה (אזרחית, אשכול קניין רוחני) - פרסם חוות דעת המפרטת את הגבולות המשפטיים לשימוש בחומרים מוגנים והכוונות להתמודדות עם האתגרים המתעוררים[66]. חוות הדעת קובעת כי שימוש בתכנים מוגנים לאימון בינה מלאכותית, מלבד מקרים חריגים, חוסה תחת הסדרי השימושים המותרים בדיני זכויות היוצרים ולכן אינו מהווה הפרה של זכויות יוצרים. ראשית, שימוש בתכנים מוגנים לשם אימון מכונה יהווה לרוב שימוש הוגן[67]. שנית, בחלק ממיזמי למידת המכונה, יחול סעיף 22 לחוק זכות יוצרים, העוסק בשימוש אגבי ביצירה. שלישית, ככל שהנתונים המשמשים ללמידה נמחקים בתום התהליך, יחול גם סעיף 26 לחוק זכות יוצרים בדבר יצירה ארעית. מסקנה זו מתיישבת גם עם המגמה הגלובלית בדין החל על הסוגיה של אימון מכונה.

בישראל, כמו במרבית המדינות, טרם הוסדרה סוגיית הגנת זכויות יוצרים על יצירות שנוצרו באמצעות בינה מלאכותית, ורק  מדינות אחדות, בריטניה לדוגמה, הסדירו סוגיות של תוכן שיוצר על ידי מחשב (computer generated content). הנטייה במדינות שבהן הפסיקה התייחסה לשאלה האם ניתן לייחס זכות יוצרים (וזכויות קניין רוחני באופן כללי) לבינה מלאכותית, היא לא להכיר בהגנת זכויות יוצרים על יצירות שנוצרו (לחלוטין) באמצעות בינה מלאכותית. בארה"ב נפסק אך לאחרונה שהתנאי להענקת זכות יוצרים הוא קיומו של יוצר אנושי.[68]

דיני פרטיות[עריכה]

בישראל, סעיף 7 לחוק יסוד: כבוד האדם וחירותו מקנה לזכות לפרטיות מעמד של זכות יסוד. חוק הגנת הפרטיות מ-1981 מגדיר עוולות ועבירות הקשורות בפגיעה בפרטיות, וקובע כללים לאיסוף ועיבוד מידע אישי. בהקשר של בינה מלאכותית, נדרשת הסכמה מדעת לפגיעה בפרטיות או לשימוש במידע אישי, וכל שימוש חייב להיות מוגבל למטרה שלשמה נאסף המידע[69].

ביולי 2022 פרסמה הרשות להגנת הפרטיות במשרד המשפטים מסמך ״חובת יידוע במסגרת איסוף ושימוש במידע אישי״[70] המציג את עמדת הרשות בנושא חובת היידוע במסגרת איסוף ושימוש במידע אישי. המסמך מציג את פרשנות הרשות לסעיף 11 בחוק הגנת הפרטיות ברמה הכללית, תוך התייחסות לחובת יידוע במסגרת הליך קבלת הסכמה וליידוע במסגרת שימוש במערכות לקבלת החלטות מבוססות אלגוריתם או בינה מלאכותית, ההוראות מבהירות כי על גורמים האוספים מידע אישי מאדם מוטלת החובה ליידע על אודות האיסוף, לספק הסברים על אודות מטרות השימוש, המקורות מהם הוא מגיע ולמי יימסר המידע. כמו כן, קיימת הדרישה להבטחת אבטחת מידע במאגרים והזכות לעיין, לתקן או למחוק מידע במקרים מסוימים. כל אלו נדרשים להתאמה גם בהקשר של שימוש בבינה מלאכותית, כדי לשמור על עקביות עם ההוראות הרגולטוריות והחוקיות הקיימות[65]

במסגרת חובת יידוע במערכות לאיסוף מידע וקבלת החלטות כנ״ל, מכיוון שאופן פעולתן של המערכות האמורות הוא מורכב ומשתנה, ומשכך עשוי להיות לא שקוף לציבור ולעיתים אף לגורמים המתכנתים את המערכות האמורות. לפיכך חובת יידוע בשלב איסוף המידע גם על גורמים האוספים מידע אישי באמצעות מערכות מבוססות בינה מלאכותית.[70]

אפליה אסורה[עריכה]

בישראל, המשפט האזרחי כולל חקיקה נגד אפליה הכוללת תחומים שונים כמו חוק שוויון הזדמנויות בעבודה (1988) ואיסור הפליה במוצרים ושירותים (2000). חוקים אלו מטילים על גופים פרטיים ומדינתיים חובת פעולה ללא אפליה ומעבירים את הנטל להוכיח את חפותם במקרה של תוצאה מפלה בתביעה אזרחית. כאשר בינה מלאכותית מובילה לפעולה אפליה, יישום החוק יחול גם על המפעילים והמפתחים של המערכת. במקרים בהם מערכת בינה מלאכותית קובעת החלטה מפלה או משמשת לפרסום מבוצע על בסיס פילוח אוכלוסיות, השימוש בה יכול להוביל להפרת החוק, ולכן יכול להיות גם עניין לתביעה נזיקית או פלילית.

עם זאת, מכיוון שבמקרים רבים קיים קושי מבני להסביר מנגנון קבלת ההחלטות של מערכות מסוימות המבוססות על בינה מלאכותית, יהיה קשה לאתר מקרים בהם המערכת הביאה בחשבון שיקולים מפלים, בין אם באופן ישיר ובין אם באופן עקיף ואת המשקל שיוחס להם במסגרת קבלת ההחלטה. ייתכן כי ניתן יהיה למתן קושי זה באמצעות כלים משפטיים שונים כגון היפוך נטלי הוכחה, קביעת חזקות ועוד[65].

דיני חוזים[עריכה]

חוק החוזים לא מונע ביצוע פעולות משפטיות באמצעים ממוחשבים, משום שאין בו ככלל דרישות של צורה וטכניקה. כיום נערכות עסקאות על סמך התקשרויות מול אתרי אינטרנט, בלי שעצם ביצוע הפעולה מעורר קושי משפטי. בהתאם לסעיף 23 לחוק ככלל אין דרישה צורנית לעריכת חוזה, ולכן ככלל אין מגבלה על שימוש במחשבים ובתקשורת אלקטרונית לעריכת חוזים.[65]

עם זאת, קיומו של אלגוריתם המעורב ביצירת חוזה שונה משימוש במדיה אלקטרונית בלבד, ומעלה שאלה בדבר היכולת של "סוכן אלקטרוני" לייצר התקשרויות באופן עצמאי. על כן, ובהיעדר דין ספציפי העוסק בכך, עלולה להתעורר שאלה בדבר תחולת חוק החוזים על השימוש בבינה מלאכותית, בין היתר, יש לבחון שאלות בדבר ייחוס לצד המפעיל בינה מלאכותית להצעה להתקשר בחוזה, כוונה לבצע פעולה זו, כך שיישא בתוצאות הפעולה המשפטית.

שאלה נוספת נוגעת לקיומה של חובת גילוי בנוגע לשימוש בבינה מלאכותית על ידי מי שעושה בה שימוש בדבר עצם השימוש וזאת מכוח החובה לנהוג בתום לב במשא ומתן.

הגנת הצרכן[עריכה]

חוק הגנת הצרכן, אשר נחקק בשנת 1981, קובע מגוון הוראות המטרתן להגן על צרכנים, במיוחד כאשר מערכות בינה מלאכותית מעורבות בתהליכי יצירת עסקאות. החוק מחייב גילוי מידע מלא ומפורט לצרכנים, ודורש מהעוסקים שמפעילים טכנולוגיות אלו להבטיח שהשימוש במידע האישי לא יעבור את המטרות שלשמן הוא נאסף. עם זאת, החוק מצביע גם על האתגרים שיכולים להתעורר כאשר פערי הידע בין הצרכנים לעוסקים מתרחבים עקב שימוש במערכות בינה מלאכותית.

החוק גם אוסר על פרסום ושיווק שעשוי להיות מזיק ומנצל כלפי קטינים, וקובע תקנות שמגבילות את דרכי השיווק והפרסום שמופנות אליהם, במטרה למנוע ניצול של חוסר הניסיון והבגרות של קטינים. כמו כן, הרשות להגנת הצרכן מוסיפה כי אתרים המציעים תכנים לקטינים אחראים לפרסומות שמוצגות באתריהם, ללא תלות בשליטה או ידיעה על תוכנן של הפרסומות, כאשר קיימת אפשרות שהן מבוססות על מידע שנאסף מהמכשירים שבהם הן נצפות[71].

על פי מסמך העקרונות הדין הקיים מאפשר התמודדות מסוימת עם חלק מהאתגרים המתעוררים עקב שימוש במערכות מבוססות בינה מלאכותית, ובכלל זה אפליה, שקיפות, הצורך בהנמקה, אבטחת מידע, סייבר ופרטיות[65].

דיני נזיקין[עריכה]

שימוש במערכות מבוססות בינה מלאכותית הגורם לנזק עשוי לחשוף את המזיק לאחריות בנזיקין. במסגרת "קול קורא"[72] שפרסמה מחלקת ייעוץ וחקיקה (משפט אזרחי) במשרד המשפטים הוצגו באופן כללי שאלות מרכזיות הקשורות בדיני הנזיקין והשימוש בכלי רכב עצמאיים, אשר יש להן רלוונטיות לגבי שימוש במערכות מבוססות בינה מלאכותית. הדיון באחריות נזיקית הוא תלוי נסיבות והקשר, וגם נגזר מהמסגרת הנזיקית החלה, כגון עוולת הרשלנות או הפרת חובה חקוקה, או העוולות הפרטניות.

בהקשר של דיני נזיקין נשאלות שאלות עקרוניות וכלליות שניתן לבחון אותן במצבים חדשים מגוונים: האם יש חובת זהירות? האם חובת הזהירות הופרה? האם נגרם נזק עקב כך? האם הנזק הוא במתחם הסיכון שיצרה ההתנהגות של מערכת הבינה המלאכותית? האם הוא לא רחוק מדי? שאלה מרכזית היא האם מי שבונה מערכת של בינה מלאכותית מסוימת יכול וצריך לצפות שייגרם נזק מסוים כתוצאה מהפעלתה או השימוש בה?

במאמרו משנת 2020 דן עו״ד רחום-טוויג באתגרים של הקצאת אחריות בהקשר של רובוטים מבוססי בינה מלאכותית, בהתחשב ביכולות האוטונומיות שלהם וחוסר הניבוי שלהם. המאמר קובע שהמסגרות המשפטיות הנוכחיות אינן מספקות ולא נותנות מענה מלא לאתגרים הללו. הוא מציע כללים שיכולים להשלים מודלים קיימים של אחריות. כללים אלה, אם לא יתקיימו, יובילו לאחריות ויכולים לעזור להגדיר את היקף האחריות הפוטנציאלית עבור מתכננים, מפעילים ומשתמשי קצה של רובוטים מבוססי בינה מלאכותית[73].

הסדרה ייעודית מגזרית[עריכה]

לצד אסדרה ברמה הבינלאומית והלאומית ישנם מאמצים לאסדרה הממוקדת במגוון תחומים במשק, מניהול שירות ציבורי[74] ואחריותיות[75] ועד אכיפת החוק[76][77], שירותי בריאות[78][79][80][81][82], המגזר הפיננסי[83][84], רובוטיקה[85][86], כלי רכב אוטונומיים[87][85], צבא[88] וביטחון לאומי[89] ומשפט בינלאומי[90][91].

להלן שתי דוגמאות מקומיות מישראל הלקוחות מתחומי התחבורה והשירותים הפיננסיים.

תחבורה[עריכה]

תיקון מספר 130 לפקודת התעבורה[87], שמטרתו להוות תשתית חוקית לניסוי בשימוש ציבורי בכלי רכב עצמאיים במרחב הציבורי, לגבש תיקון זה לפקודת התעבורה תשתית ידע בנושא, ולבסס את אמון הציבור בכלי רכב עצמאיים. קובע דרישות רגולטוריות ממי שמפעיל רכב עצמאי, ובכלל זה בתחום הבטיחות והגנת הסייבר, התיקון מבוסס על בטרם הפעלת הרכב, וכן בכל מחזור החיים של השימוש בו במרחב הציבורי.

שירותים פיננסיים[עריכה]

ביולי 2022 הגישו ד"ר ארי אחיעז, פרופ' אסף חמדני, פרופ' דן עמירם וד"ר קובי קסטיאל מבית הספר לניהול והפקולטה למשפטים של אוניברסיטת תל אביב מסמך סקירה השוואתית של התמודדות רגולטורית עם בינה מלאכותית בתחום הפיננסי. המסמך הוגש לבחינת המחלקה הכלכלית בייעוץ וחקיקה במשרד המשפטים וכולל גם המלצות לאופן שבו על המחוקק וגורמי הפיקוח, האסדרה והמשפט להיערך לקראת האתגרים וההזדמנויות בתחום, תוך אבחנה בין אתגרים כלליים לבין אתגרים ייחודים למגזר הפיננסי[83].

יוזמות רגולטוריות ומחקריות[עריכה]

מאמצים לרגולציה של בינה מלאכותית בישראל מתוארים במספר פעולות ממשלתיות ומחקריות שנעשו בשנים האחרונות. תחילה, בשנת 2018, המטה לביטחון לאומי במשרד ראש הממשלה ריכז את הבחינה האסטרטגית בנוגע לבינה מלאכותית, כולל עבודה משותפת עם המיזם הלאומי למערכות נבונות בטוחות. המיזם דן בעקרונות אתיים ומשפטיים וקרא לאמץ מדיניות רגולטורית אחידה ולבנות תוכניות ידע והכשרה בתחום[92].

בשנת 2020, הפורום לתשתיות לאומיות למחקר ופיתוח, בהובלת נציג האקדמיה הלאומית למדעים, קים ועדת בדיקה שקראה ליצירת סביבה רגולטורית מאפשרת ומעודדת לבינה מלאכותית. הוועדה המליצה על התערבות ממשלתית להאצת התפתחות התחום ועל פיתוח תוכניות ידע והכשרה[93].

בשנת 2021, מחלקת ייעוץ וחקיקה של משרד המשפטים ורשות החדשנות פרסמו "קול קורא" משותף, שקרא לציבור להעלות חסמים רגולטוריים ולהציע רגולציה אפשרית לתחום הבינה המלאכותית. במסגרת זו נערכו שולחנות עגולים עם התעשייה כדי להבין את הצרכים והאתגרים שמתעוררים[94].

בדצמבר 2022, חודשיים לאחר פרסום מסמך העקרונות על ידי משרד החדשנות המדע והטכנולוגיה[65] התפרסמה באתר המכון הישראלי לדמוקרטיה עמדה המברכת על פרסומו אך מציעה כעניין שבעקרון, על מנת להבטיח הגנה נאותה על זכויות אדם וחירויות אזרח, שהסדרת בינה מלאכותית תהיה על בסיס חקיקה, ואין להסתפק באסדרה רכה של בינה מלאכותית ובמנגנונים וולנטריים[17].

כלל אלו משקפים את המגמה הגוברת ליצירת תהליכים רגולטוריים מותאמים ומאורגנים להתמודדות עם האתגרים העולים מהתפתחויות בתחום הבינה המלאכותית, תוך דגש על אתיקה, נגישות והגנת הצרכן.

קשיים משפטיים באכיפה[עריכה]

לצד היתרונות המשמעותיים הגלומים בו, השימוש בבינה מלאכותית מעורר סיכונים וחששות שונים, לרבות פגיעה בזכויות אדם, כפי שנזכר לעיל. סיכונים אלה תלויים בהקשר בו נעשה השימוש ההתמודדות עם סיכונים בבינה מלאכותית, ובין היתר באופן היישום הטכנולוגי וסוג השימוש[65]. וחששות אלה עשויה לעורר סוגיות משפטיות ורגולטוריות מורכבות, אשר יש בהן כדי ליצור אתגרים משמעותיים עבור המערכת המשפטית והרגולטורית ברחבי העולם ובישראל[65].

לדוגמה, הנושא של דיני איסור האפליה מתרחש בהקשר המשתנה של בינה מלאכותית, והוא משובץ בקרבה רבה לתחום הטכנולוגיה והפיתוחים החדישים. נרחיב על קשיים משפטיים שנובעים מהשימוש בבינה מלאכותית בקשר לאפליה ישירה ועקיפה[95].

בהקשר הזה, השימוש בבינה מלאכותית יכול לגרום לקשיים משפטיים בשתי דרכים עיקריות:

  1. אפליה ישירה: השימוש בקריטריונים אוטומטיים או במערכות המבוססות על בינה מלאכותית עשוי להביא לאפליה ישירה כשלעצמם. זה יכול לקרות כאשר הקריטריונים או האלגוריתמים מובנים בצורה שמפלים קבוצות מסוימות באופן בלתי ראוי[65].
  2. אפליה עקיפה: גם במקרים בהם המערכות הבאות על החלטות מקבלות בצורה עצמאית ומיוחדת, עשויות להיות בעיות משפטיות. לדוגמה, כאשר מאפיינים שלא קשורים באופן ישיר למפלה משפיעים על ההחלטה באופן ישיר, מתקבלת החלטה שעשויה להיות אפליה בעקיפה[65].

השימוש במערכות בינה מלאכותית בתהליכי קבלת החלטות בתחומים כמו קבלת עובדים עלול לגרום להנצחת הטיות קיימות במידה והתהליך מתבסס על נתונים מוגבלים השייכים לחברה הקולטת בלבד[96]. בהיעדר רגולציה שתחייב שיתוף מידע בין גופים, מתעוררת בעיה משפטית בהרחבת ובשימוש במאגרי נתונים נוספים, שכן מידע זה עשוי להיות מוגן תחת דיני פרטיות (בנוגע למידע אישי של עובדים) ודיני קניין רוחני (בנוגע למידע השייך למעסיקים).

בעיית ״הקופסה השחורה״[עריכה]

בינה מלאכותית מבוססת על יכולות חישוביות המפתחות מודלים לתחזית וקבלת החלטות שלעיתים לא ניתן להבין את דרך פעולתם דרך התוצאה הסופית בלבד. המורכבות של "אימון" המערכת גורמת לכך שהלוגיקה התפעולית מתפתחת מהנתונים ומהתהליך ואינה מוגדרת מראש על ידי המפתח. מערכות אלו נתפסות לעיתים כ-"קופסה שחורה", משם שבו ידועים הקלט והפלט אך תהליך העיבוד פנימי נשאר חסוי ובלתי ניתן להבנה[65][70][83].

הבעיה העיקרית המתעוררת נוגעת לאופן שבו קבלת החלטות על ידי המערכת יכולה לפגוע בכבוד האדם ובאוטונומיה שלו, כאשר הוא נתון להחלטות שנתפסות כשרירותיות או בלתי נראות. בנוסף, הקושי לזהות ולהתמודד עם החלטות מפלות מחמיר את הפגיעה בזכויות נוספות כמו שוויון. כאשר ההחלטה של המערכת אינה ניתנת להסבר, זה מקשה על הנפגעים להתמודד עם ההשלכות[65].

הפתרון המוצע לבעיות אלו כולל דרישה להסברתיות – היכולת להסביר באופן מובן לאדם את אופן פעולת המערכת. תכונה זו אינה מתקיימת תמיד, ולעיתים נדרשים אמצעים חיצוניים כדי להסביר את תהליך קבלת ההחלטות[97]. מערכות שמבצעות תהליכים מורכבים של למידה דורשות פתרונות יצירתיים ומשפטיים להבטיח שהן נשארות שקופות ומובנות למשתמשים ולנפגעים פוטנציאליים[65].

אחריותיות[עריכה]

האחריותיות (Accountability), ובכלל זה האחריות המשפטית (Legal Liability), נמנית עם האתגרים המרכזיים הקשורים בשימוש במערכות מבוססות בינה מלאכותית. הקצאת האחריות על פעילות אוטונומית של מערכות אלה מורכבת, כיוון שהן יכולות לחקות פעולות שמזוהות עם יכולות אנושיות, ולעיתים קובעות תוצאות ללא התערבות ברורה מצד אדם[98].

ככל שהמעורבות האנושית בתהליך הקבלה מצטמצמת, עולה השאלה איך מקבלים החלטות ומי נושא באחריות על טעויות שעשויות להתרחש. מונח האחריותיות כולל צורך להבטיח שגורמים מתאימים ישגיחו על הפיתוח והפעילות של מערכות אלו בהתאם לסטנדרטים והתקנים רלוונטיים, האחריות עלולה להיות גם משפטית, במקרה של נזקים ישירים שנגרמו מהשימוש במערכת, וגם חברתית, כאשר השפעת המערכת על הציבור או על קבוצות מסוימות גורמת לתוצאות שליליות שאינן מתקבלות על הדעת[65].

מעורבות אנושית[עריכה]

סוגיה מרכזית שמתעוררת בקשר לשימוש במערכות המבוססות על בינה מלאכותית, נוגעת למידת המעורבות האנושית הנדרשת במסגרת תהליך קבלת החלטה הנסמך על מערכת מסוג זה. מאפיין מרכזי שמייחד מערכות מבוססות בינה מלאכותית הוא יכולתן לפעול באופן אוטונומי המדמה בינה אנושית ובמקרים רבים מסוגל לבצע פעולות חישוב ביעילות רבה יותר מבינה אנושית.[65]

העיסוק במעורבות אנושית בבינה מלאכותית נעשה בשני הקשרים מרכזיים. הקשר אחד נובע מעיקרון ערכי-מוסרי שלפיו בעניינים שיש להם השפעה משמעותית על אדם, ההחלטה תתקבל על ידי אדם, כגון החלטה בעלת משמעות כלכלית כבדה או החלטות שיש בהן ממד ערכי או אתי (הוראת סעיף 22 ל-GDPR). הקשר שני הוא תועלתני, ומטרתו להתמודד עם החשש מפני כשלים בטכנולוגיה באמצעות שילוב אדם בתהליך קבלת ההחלטות.

ישנה שאלה כבדת משקל בנוגע למשמעות המעשית של מעורבות אנושית בתהליך קבלת החלטה, כאשר ניתנת המלצה ברורה של מערכת מבוססת בינה מלאכותית. מחקרים מתחום הכלכלה ההתנהגותית הראו כי ישנן הטיות ייחודיות המאפיינות את האינטראקציה בין מקבלי החלטות אנושיים לבין מערכות המבוססות על בינה מלאכותית. אחת ההטיות המרכזיות לעניין זה היא הטיית האוטומציה, במסגרתה אנשים נוטים לאמץ את המסקנה אליה הגיעה מערכת אוטומטית בלי להפעיל את אותה מידה של שיקול דעת כמו ביחס להחלטות שלא התקבלו על ידי מערכת כזו. בנוסף, יש חשש שהאדם שמעורב בתהליך קבלת ההחלטה לא יסטה מהמלצות המערכת, מפאת החשש לנשיאה באחריות במקרה של טעות בשיקול דעתו (ראו גם פרק "אחריותיות" להלן). כך למשל, רופא עלול לחשוש לסטות מהמלצה של המערכת בנוגע לטיפול רפואי מומלץ על ידי המערכת.

לבסוף, יש חשש כי המעורבות האנושית תוביל לכך שהאחריות במקרה של טעות תעבור מכתפי מקבלי החלטות שהחליטו להשתמש במערכת או מפתחי המערכת, לגורם האנושי המעורב בתהליך קבלת ההחלטה, גם כשהדבר אינו מוצדק[99].

קישורים חיצוניים[עריכה]

  1. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Arthur L. Samuel, Some Moral and Technical Consequences of Automation—A Refutation, Science 132, 1960-09-16, עמ' 741–742 doi: 10.1126/science.132.3429.741
  2. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Camila Domonoske, Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk', https://www.npr.org/, ‏July 17, 2017
  3. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Samuel Gibbs, Elon Musk: regulate AI to combat 'existential threat' before it's too late, https://www.theguardian.com/, ‏July 17, 2017
  4. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Arjun Kharpal, A.I. is in its ‘infancy’ and it’s too early to regulate it, Intel CEO Brian Krzanich says, https://www.cnbc.com/, ‏November 7, 2017
  5. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Johanna Chamberlain, The Risk-Based Approach of the European Union’s Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective, European Journal of Risk Regulation 14, 2023-03, עמ' 1–13 doi: 10.1017/err.2022.38
  6. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Andreas Kaplan, Michael Haenlein, Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence, Business Horizons 62, 2019-01-01, עמ' 15–25 doi: 10.1016/j.bushor.2018.08.004
  7. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Vincent, James, AI is entering an era of corporate control, The Verge, ‏April 3, 2023
  8. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Edwards, Benj, Poll: AI poses risk to humanity, according to majority of Americans, Ars Technica, ‏May 17, 2023
  9. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Kasperowicz, Peter, Regulate AI? GOP much more skeptical than Dems that government can do it right: poll, Fox News, ‏May 2, 2023
  10. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Fox News Poll, Fox News, ‏2023
  11. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Research handbook on the law of artificial intelligence, Cheltenham Northampton, MA: Edward Elgar Publishing, Paperback edition, 2022, שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.ISBN 978-1-78643-904-8
  12. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Bernd W. Wirtz, Jan C. Weyerer, Carolin Geyer, Artificial Intelligence and the Public Sector—Applications and Challenges, International Journal of Public Administration 42, 2019-05-19, עמ' 596–615 doi: 10.1080/01900692.2018.1498103
  13. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Alessandro Mantelero, Maria Samantha Esposito, An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems, Computer Law & Security Review 41, 2021-07, עמ' 105561 doi: 10.1016/j.clsr.2021.105561
  14. 14.0 14.1 שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Miriam C. Buiten, Towards Intelligent Regulation of Artificial Intelligence, European Journal of Risk Regulation 10, 2019-03, עמ' 41–59 doi: 10.1017/err.2019.8
  15. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Artificial intelligence in society, Paris: OECD Publishing, 2019, שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.ISBN 978-92-64-54519-9
  16. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Vladimir P. Kamyshansky, Evgenia Y. Rudenko, Evgeniy A. Kolomiets, Dina R. Kripakova, Revisiting the Place of Artificial Intelligence in Society and the State, Artificial Intelligence: Anthropogenic Nature vs. Social Origin, Springer International Publishing, 2020, עמ' 359–364 doi: 10.1007/978-3-030-39319-9_41
  17. 17.0 17.1 שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.ד"ר תהילה שוורץ אלטשולר, עו"ד עמיר כהנא, עו"ד גדי פרל, ד"ר אורי פריימן, אסדרת הבינה המלאכותית בישראל מחייבת קווים אדומים שימנעו פגיעה בזכויות יסוד, המכון הישראלי לדמוקרטיה, ‏December 30, 2022
  18. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Walter G. Johnson, Diana M. Bowman, A Survey of Instruments and Institutions Available for the Global Governance of Artificial Intelligence, IEEE Technology and Society Magazine 40, 2021-12, עמ' 68–76 doi: 10.1109/MTS.2021.3123745
  19. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Marchant, Gary, “Soft Law” Governance of Artificial Intelligenc, https://escholarship.org/, ‏2019-01-25
  20. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.{{{מחבר}}}, IEEE Technology and Society Magazine publication information, IEEE Technology and Society Magazine 40, 2021-12, עמ' C2–C2 doi: 10.1109/MTS.2021.3126194
  21. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Hillary R. Sutcliffe, Samantha Brown, Trust and Soft Law for AI, IEEE Technology and Society Magazine 40, 2021-12, עמ' 14–24 doi: 10.1109/MTS.2021.3123741
  22. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.C. D. Schmit, M. J. Doerr, J. K. Wagner, Leveraging IP for AI governance, Science 379, 2023-02-17, עמ' 646–648 doi: 10.1126/science.add2202
  23. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Henry Kissinger, Eric Schmidt and Daniel Huttenlocher, The Challenge of Being Human in the Age of AI, https://www.wsj.com/, ‏Nov. 1, 2021
  24. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Matthew Boyd, Nick Wilson, Rapid developments in Artificial Intelligence: how might the New Zealand government respond?, Policy Quarterly 13, 2017-11-01 doi: 10.26686/pq.v13i4.4619
  25. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Innovation, Science and Economic Development Canada, Declaration of the International Panel on Artificial Intelligence, https://www.canada.ca/, ‏May 16, 2019
  26. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Simonite, Tom, The World Has a Plan to Rein in AI—but the US Doesn’t Like It, Wired, ‏January 6, 2020
  27. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.John Edwards, AI Regulation: Has the Time Arrived?, Information Week, ‏February 24, 2020
  28. 28.0 28.1 שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.UNESCO science report: the race against time for smarter development, Paris: United Nations Educational, Scientific and Cultural Organization, 2021, UNESCO science report, שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.ISBN 978-92-3-100450-6
  29. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.GPAI, Community, GPAI, ‏Snapshot from March 30, 2023
  30. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Mariarosaria Taddeo, Luciano Floridi, Regulate artificial intelligence to avert cyber arms race, Nature 556, 2018-04, עמ' 296–298 doi: 10.1038/d41586-018-04602-6
  31. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Bradford, Anu, The Race to Regulate Artificial Intelligence, Foreign Affairs, ‏June 27, 2023
  32. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.ED FELTEN AND TERAH LYONS, The Administration’s Report on the Future of Artificial Intelligence, The White House, ‏October 12, 2016
  33. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.John Frank Weaver, Regulation of artificial intelligence in the United States, Edward Elgar Publishing, 2018-12-28, עמ' 155–212, שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.ISBN 978-1-78643-905-5. (בen-US)
  34. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Melissa Heikkiläarchive page, The White House just unveiled a new AI Bill of Rights, MIT Technology Review, ‏October 4, 2022
  35. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Automated employment decision tools, The New York City Council, ‏December 11, 2021
  36. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Kristin Robinson, Tennessee Makes A.I. an Outlaw to Protect Its Country Music and More, New York Times, ‏March 26, 2024
  37. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Ashley King, The ELVIS Act Has Officially Been Signed Into Law — First State-Level AI Legislation In the US, Digital Music News, ‏March 21, 2024
  38. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Thomas J. Hwang, Aaron S. Kesselheim, Kerstin N. Vokinger, Lifecycle Regulation of Artificial Intelligence– and Machine Learning–Based Software Devices in Medicine, JAMA 322, 2019-12-17, עמ' 2285–2286 doi: 10.1001/jama.2019.16842
  39. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Ajay Kohli, Vidur Mahajan, Kevin Seals, Ajit Kohli, Saurabh Jha, Concepts in U.S. Food and Drug Administration Regulation of Artificial Intelligence for Medical Imaging, American Journal of Roentgenology 213, 2019-10, עמ' 886–888 doi: 10.2214/AJR.18.20410
  40. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.[https://www.nitrd.gov/pubs/National-AI-RD-Strategy-2019.pdf THE NATIONAL ARTIFICIAL INTELLIGENCE RESEARCH AND DEVELOPMENT STRATEGIC PLAN: 2019 UPDATE], ‏June, 2019
  41. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.FACT SHEET: Biden-⁠Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI, The White House, ‏July 21, 2023
  42. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.FACT SHEET: Biden-⁠Harris Administration Secures Voluntary Commitments from Eight Additional Artificial Intelligence Companies to Manage the Risks Posed by AI, The White House, ‏September 12, 2023
  43. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Europe's new role in digital regulation, Le Monde, ‏August 28, 2023
  44. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Martin Coulter, Big Tech braces for EU Digital Services Act regulations, Reuters, ‏August 25, 2023
  45. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Christian Peukert, Stefan Bechtold, Tobias Kretschmer, Michail Batikas, Regulatory export and spillovers: How GDPR affects global markets for data, CEPR, ‏September 30, 2020
  46. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Satariano, Adam, .Europeans Take a Major Step Toward Regulating A.I., The New York Times, ‏June 14, 2023
  47. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Browne, Ryan, EU lawmakers pass landmark artificial intelligence regulation, CNBC, ‏June 14, 2023
  48. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.NíFhaoláin, Labhaoise; Hines, Andrew; Nallur, Vivek, [https://ceur-ws.org/Vol-2771/AICS2020_paper_53.pdf Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe], Dublin: Technological University Dublin, School of Computer Science, Dublin. pp. 1–12. This article incorporates text available under the CC BY 4.0 license. (The CC BY 4.0 licence means that everyone have the right to reuse the text that is quoted here, or other parts of the original article itself, if they credit the authors, ‏2020
  49. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Communication Artificial Intelligence for Europe, European Commission, ‏April 25, 2018
  50. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Ethics guidelines for trustworthy AI, European Commission, ‏April 8, 2019
  51. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Policy and investment recommendations for trustworthy Artificial Intelligence, European Commission, ‏June 26, 2019
  52. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.White paper on artificial intelligence : a European approach to excellence and trust | WorldCat.org, search.worldcat.org (בEnglish)
  53. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.White Paper on Artificial Intelligence – a European approach to excellence and trust, European Commission, ‏February 19, 2020
  54. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Broadbent, Meredith, What’s Ahead for a Cooperative Regulatory Agenda on Artificial Intelligence?, CSIS, ‏March 17, 2021
  55. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.HEIKKILÄ, MELISSA, POLITICO AI: Decoded: The EU’s AI rules — Finland talks to machines — Facebook’s fairness project, Politico, ‏April 14, 2021
  56. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Maquindus, Olorin, On the back of its AI Act, the EU invests in risky software to secure borders, Le Monde, ‏June 23, 2023
  57. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Browne, Ryan, Europe takes aim at ChatGPT with what might soon be the West’s first A.I. law. Here’s what it means, CNBC, ‏May 15, 2023
  58. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Ponomarov, Kostiantyn, The EU AI Act Overview: What's Coming for Businesses, Legal Nodes, ‏March 20, 2024
  59. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Experts react: The EU made a deal on AI rules. But can regulators move at the speed of tech?, Atlantic Council, ‏December 11, 2023
  60. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.NEW GENERATION OF ARTIFICIAL INTELLIGENCE DEVELOPMENT PLAN, UNODC, ‏2017
  61. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Department of International Cooperation Ministry of Science and Technology(MOST), P.R.China, [https://www.mfa.gov.cn/ce/cefi/eng/kxjs/P020171025789108009001.pdf Next Generation Artificial Intelligence Development Plan Issued by State Council], ‏September 15, 2017
  62. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Fei Wu, Cewu Lu, Mingjie Zhu, Hao Chen, Jun Zhu, Kai Yu, Lei Li, Ming Li, Qianfeng Chen, Xi Li, Xudong Cao, Zhongyuan Wang, Zhengjun Zha, Yueting Zhuang, Yunhe Pan, Towards a new generation of artificial intelligence in China, Nature Machine Intelligence 2, 2020-06, עמ' 312–316 doi: 10.1038/s42256-020-0183-4
  63. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Confino, Paolo, China just gave the world a blueprint for reining in generative A.I. like ChatGPT and Bard, Fortune, ‏July 14, 2023
  64. עע"מ 3782/12 מפקד מחוז תל אביב-יפו במשטרת ישראל נ' איגוד האינטרנט הישראלי, סו)2( ,159 פס' 25-23 לפסק 17 הדין של השופט סולברג )2013(.
  65. 65.00 65.01 65.02 65.03 65.04 65.05 65.06 65.07 65.08 65.09 65.10 65.11 65.12 65.13 65.14 שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.משרד החדשנות, המדע והטכנולוגיה ומשרד המשפטים, עקרונות מדיניות, רגולציה ואתיקה בתחום הבינה המלאכותית, https://www.gov.il/, ‏December 14, 2023
  66. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.עו"ד כרמית יוליס, עו"ד הווארד פולינר, עו"ד ד"ר ליטל הלמן, חוות דעת: שימושים בתכנים מוגנים בזכויות יוצרים לצורך למידת מכונה, משרד המשפטים, ‏December 18, 2022
  67. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.כבוד השופט י' טירקל, ערעור על פסק דין בית המשפט המחוזי - ע"א 8393/96, ‏December 21, 1998
  68. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.מערכת אתר זאפ-משפטי, בינה מלאכותית וזכויות יוצרים: האם החוק מגן על יוצרים מפני AI?, זאפ-משפטי, ‏28.08.23
  69. ראו עת"מ )מינהליים ת"א( 24867-02-11 איי.די.איי חברה לביטוח בע"מ נ' רשם מאגרי המידע, הרשות למשפט 37 טכנולוגיה ומידע במשרד המשפטים )2012(.
  70. 70.0 70.1 70.2 שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.הרשות להגנת הפרטיות, חובת יידוע במסגרת איסוף ושימוש במידע אישי, משרד המשפטים, ‏July 18, 2022
  71. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.הרשות להגנת הצרכן: אתרי תוכן אחראיים לפרסומים אסורים לקטינים, הפורטל המשפטי לאינטרנט, סייבר וטכנולוגיית מידע, ‏July 5, 2022
  72. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.מחלקת ייעוץ וחקיקה, אסדרת השימוש ברכבים אוטונומיים - פנייה לקבלת עמדת הציבור בתחום הנזיקין והביטוח, משרד המשפטים, ‏February 8, 2021
  73. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Omri Rachum-Twaig, Whose Robot Is It Anyway?, University of Illinois Law Review 4, 2020
  74. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Bernd W. Wirtz, Wilhelm M. Müller, An integrated artificial intelligence framework for public management, Public Management Review 21, 2019-07-03, עמ' 1076–1100 doi: 10.1080/14719037.2018.1549268
  75. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Dillon Reisman, Jason Schultz, Kate Crawford, Meredith Whittaker, [https://web.archive.org/web/20200614205833/https://ainowinstitute.org/aiareport2018.pdf ALGORITHMIC IMPACT ASSESSMENTS: A PRACTICAL FRAMEWORK FOR PUBLIC AGENCY ACCOUNTABILITY], AINOW, ‏April 2018
  76. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.On Artificial Intelligence - A European approach to excellence and trust, European Commission, ‏February 19, 2020
  77. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Towards Responsible Artificial Intelligence Innovation, UNICRI, ‏July 2020
  78. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Ajay Kohli, Vidur Mahajan, Kevin Seals, Ajit Kohli, Saurabh Jha, Concepts in U.S. Food and Drug Administration Regulation of Artificial Intelligence for Medical Imaging, American Journal of Roentgenology 213, 2019-10, עמ' 886–888 doi: 10.2214/AJR.18.20410
  79. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Thomas J. Hwang, Aaron S. Kesselheim, Kerstin N. Vokinger, Lifecycle Regulation of Artificial Intelligence– and Machine Learning–Based Software Devices in Medicine, JAMA 322, 2019-12-17, עמ' 2285–2286 doi: 10.1001/jama.2019.16842
  80. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Kavita Sharma, Padmavati Manchikanti, Regulation of Artificial Intelligence in Drug Discovery and Health Care, Biotechnology Law Report 39, 2020-10-01, עמ' 371–380 doi: 10.1089/blr.2020.29183.ks
  81. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Haroldas Petkus, Jan Hoogewerf, Jeremy C Wyatt, What do senior physicians think about AI and clinical decision support systems: Quantitative and qualitative analysis of data from specialty societies, Clinical Medicine 20, 2020-05, עמ' 324–328 doi: 10.7861/clinmed.2019-0317
  82. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Jerome Y. Cheng, Jacob T. Abel, Ulysses G.J. Balis, David S. McClintock, Liron Pantanowitz, Challenges in the Development, Deployment, and Regulation of Artificial Intelligence in Anatomic Pathology, The American Journal of Pathology 191, 2021-10, עמ' 1684–1692 doi: 10.1016/j.ajpath.2020.10.018
  83. 83.0 83.1 83.2 שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.ד"ר ארי אחיעז, פרופ' אסף חמדני, פרופ' דן עמירם, ד"ר קובי קסטיאל בית הספר לניהול והפקולטה למשפטים, אוניברסיטת תל אביב, [https://www.gov.il/BlobFolder/news/ai_report/he/AI_report.pdf בינה מלאכותית במגזר הפיננסי: שימושים נפוצים, אתגרים וסקירה השוואתית של התמודדות רגולטורית], משרד המשפטים, ‏July 18, 2022
  84. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Stephan Bredt, Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies, Frontiers in Artificial Intelligence 2, 2019 doi: 10.3389/frai.2019.00016
  85. 85.0 85.1 שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Gonenc Gurkaynak, Ilay Yilmaz, Gunes Haksever, Stifling artificial intelligence: Human perils, Computer Law & Security Review 32, 2016-10, עמ' 749–758 doi: 10.1016/j.clsr.2016.05.003
  86. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Ron Iphofen, Mihalis Kritikos, Regulating artificial intelligence and robotics: ethics by design in a digital society, Contemporary Social Science 16, 2021-03-15, עמ' 170–184 doi: 10.1080/21582041.2018.1563803
  87. 87.0 87.1 שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.חוק לתיקון פקודת התעבורה (מס' 130), התשפ"ב–2022, מאגר החקיקה הלאומי, כנסת ישראל, ‏March 8, 2022
  88. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense | WorldCat.org, search.worldcat.org (בEnglish)
  89. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Alexander Babuta, Marion Oswald and Ardi Janjeva, Artificial Intelligence and UK National Security, Royal United Services Institute for Defence and Security Studies, ‏April 2020
  90. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Emery, David, Robots with Guns: The Rise of Autonomous Weapons Systems, Snopes, ‏April 21, 2017
  91. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Bento, Lucas V.M., No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law, dash.harvard.edu, ‏2017
  92. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.פרופ' יצחק בן ישראל, ראש המיזם פרופ' אביתר מתניה, ראש המיזם ליהיא פרידמן, מרכזת המיזם, [https://icrc.tau.ac.il/sites/cyberstudies-english.tau.ac.il/files/media_server/cyber%20center/%D7%97%D7%9C%D7%A7%20%D7%90%20-%20%D7%AA%D7%9E%D7%A6%D7%99%D7%AA%20%D7%95%D7%94%D7%9E%D7%9C%D7%A6%D7%95%D7%AA.pdf המיזם הלאומי למערכות נבונות בטוחות להעצמת הביטחון הלאומי והחוסן המדעי-טכנולוגי: אסטרטגיה לאומית לישראל], 2020
  93. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.ד"ר ארנה ברי, ועדת בינה מלאכותית ומדע הנתונים, 2020
  94. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.רשות החדשנות, פנייה לציבור לקבלת מידע בנוגע לרגולציה וחסמים רגולטוריים ביחס לתחום הבינה המלאכותית, רשות החדשנות, ‏2021
  95. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.EUROPEAN COMMISSION, Data collection in the field of ethnicity, ‏2017
  96. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Amanda Levendowski, How Copyright Law Can Fix Artificial Intelligence's Implicit Bias Problem, 2018
  97. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Gabriel Nicholas, Explaining Algorithmic Decisions, 2020
  98. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Bernd Carsten Stahl, Responsible Innovation Ecosystems: Ethical Implications of the Application of .the Ecosystem Concept to Artificial Intelligence, 2022
  99. שגיאת לואה ביחידה package.lua בשורה 80: module 'יחידה:PV-options' not found.Dominique Hogan-Doran, Computer says “no”: automation, algorithms and artificial intelligence in Government decision-making, Handbook for Judicial Officers — Artificial intelligence, ‏October 2021


This article "אסדרה של בינה מלאכותית בישראל" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:אסדרה של בינה מלאכותית בישראל. Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.



Read or create/edit this page in another language[עריכה]