top of page

הורדת ידיים בין הבינה המלאכותית למשפט – הקרב שלא תרצו שיהיה בו צד מפסיד

עודכן: 16 באפר׳

שבועות בודדים חלפו מאז שמיקרוסופט הציגה גרסה מוקדמת של מנוע החיפוש החדש שלה המופעל על ידי בינה מלאכותית, Bing AI, וכבר הוא עושה כותרות. המנוע נועד להחזיר פסקאות שלמות של טקסט שנקראות כאילו נכתבו על ידי אדם, אולם בודקי בטא גילו במהירות בעיות עם הבוט. הוא איים על חלקם, סיפק עצות מוזרות ולא מועילות לאחרים, התעקש שהוא צודק כשהוא טועה ואפילו הכריז על אהבה למשתמשים שלו. בודקים אפילו גילו "אישיות חלופית" בתוך הצ'אטבוט בשם סידני. WTF?

כתוצאה מכך, החברה הודיעה כי "חווית הצ'אט תהיה מוגבלת ל-50 סיבובי צ'אט ביום ו-5 סיבובי צ'אט למפגש". לפי מיקרוסופט, ההגבלות "יעזרו למקד את הפעלות הצ'אט", יום לאחר שהחברה אמרה ששיחות ארוכות עם Bing החדש (יותר מ-15 שאלות) עלולות "לבלבל" את מודל המחשוב של התוכנית ולהניב תגובות לא אחידות.

אמנם זה סיפור די ביזארי, אבל יש לא מעט משפטנים שהסיפור הזה דווקא גרם להם ללקק את האצבעות. בעיניהם, המקרה הזה של Bing AI, מחזק את הטענה לפיה מנועי בינה מלאכותית עשויים לפתח מעין ישות עצמאית שאנשים נשענים עליה בקבלת החלטות מקצועיות, כלכליות, רגשיות, משפטיות וכו'. ולדבר הזה, יכולות להיות השלכות לא פשוטות. 

אחד האתגרים המשפטיים המשמעותיים שה-AI מביא איתו הוא נושא האחריות. מערכות בינה מלאכותית נועדו ללמוד ולקבל החלטות על סמך נתונים, וכתוצאה מכך, לעיתים קרובות קשה לקבוע מי אחראי להחלטות שמתקבלות על ידי AI. הדבר מעלה שאלות לגבי סמכות ואחריות, במיוחד כאשר נעשה שימוש בבינה מלאכותית לקבלת החלטות קריטיות כמו במערכת המשפט הפלילי, בתחום הרפואה ובעולם הפיננסים.

אתגר משמעותי נוסף הוא הפוטנציאל להטיה (bias) במערכות בינה מלאכותית. אם הנתונים המשמשים לאימון מערכת בינה מלאכותית מוטים, אז הפלט של המערכת יהיה מוטה. זה מעלה חששות לגבי אפליה, במיוחד בתחומים כמו גיוס עובדים, הלוואות וביטוח, שבהם החלטות המתקבלות על ידי מערכות בינה מלאכותית יכולות להשפיע באופן משמעותי על חייהם של אנשים.

כמו שניתן לראות, השימוש בבינה מלאכותית מעורר חששות משפטיים ואתיים, מה שמוביל לצורך במסגרת משפטית איתנה. אבל יש לא מעט בעיות וחוסר הסכמות בכל הנוגע לרגולציה של AI.

באופן כללי, יש שתי אסכולות בנושא הרגולציה של בינה מלאכותית. הראשונה מבוססת על ההנחה שרגולציה מזיקה לחדשנות. יזמים במחנה הזה לא רוצים שתחום הבינה המלאכותית יוגדר מוקדם מדי, ובטח שלא על ידי אנשים לא טכניים. לדעתם, מדיניות גרועה יוצרת טכנולוגיה גרועה, ורגולציה חונקת חדשנות.

האסכולה השניה מבקשת להגן מפני יצירות בינה מלאכותית שעלולות ליצור נזק ובכך "להרעיל את הבאר" עבור יזמי AI אחרים. תומכי אסכולה זו מאמינים שממשלות צריכות לפעול במהירות כדי לקדם סטנדרטים והנחיות קיימים או, במידת הצורך, ליצור קווים מנחים חדשים, כדי למנוע נזק שיביא להאטה ביזמות בעולמות הבינה המלאכותית.

כדי להתמודד עם הפערים והאתגרים המשפטיים שמציבה הבינה המלאכותית, מספר מדינות החלו לנקוט בצעדים להסדרת בינה מלאכותית. לדוגמה, תקנת הגנת המידע הכללית של האיחוד האירופי (GDPR) כוללת הוראות המסדירות מערכות בינה מלאכותית המעבדות נתונים אישיים. באופן דומה, ועדת הסחר הפדרלית של ארצות הברית (FTC) פרסמה הנחיות לגבי השימוש ב-AI בקבלת החלטות אוטומטית, כולל המלצות על שקיפות, הוגנות ואחריות.

ועדיין, המסגרת המשפטית שמגדירה ומווסתת AI עדיין בחיתוליה. במדינות מסוימות, המסגרת המשפטית של AI אינה קיימת או שאינה מספקת, מה שמוביל לפערים ואתגרים משפטיים. המסגרת המשפטית הקיימת, לרבות דיני פרטיות, חוקי קניין רוחני וחוקים נגד אפליה, לא תוכננה מתוך מחשבה על בינה מלאכותית, מה שהוביל לחוסר בהירות לגבי האופן שבו חוקים אלו חלים על בינה מלאכותית.

בסופו של דבר, היעדר חקיקה מתאימה מביא לבלבול ולנזק כפול: מצד אחד, עלול להיגרם כאוס ונזק כתוצאה מניצול מירבי של החוסר ברגולציה, במובן של "מה שלא אסור, מותר". מצד שני, עלול להיווצר "אפקט מצנן" ליזמות וחדשנות בעולמות ה-AI: כאשר אדם העוסק בבינה מלאכותית לא יודע מה אסור לו או מותר לו, הוא עלול להימנע מחדשנות ומפיתוח מוצר שמקדם את החברה, מחשש שיישא באחריות משפטית.

Comments


bottom of page