top of page

מדענים ואנשי טכנולוגיה

חתמו על מכתב פתוח שקורא למעבדות פיתוח של בינה מלאכותית ברחבי העולם לעצור מפיתוחה,

כי הבעיות שאולי יצוצו עם מחשבים תבוניים והסכנה שמחשבים כאלה ינסו להשתלט על העולם או להשמידו,

במיוחד אם למישהו יעלה הרעיון של לחבר בינה מלאכותית למערכות נשק. הקריאה אמנם יצאה במדינות מערביות, אך האם גם סין ורוסיה ומדינות טוטליטריות נוספות יחדלו ממאמצי הפיתוח של בינה מלאכותית כללית? ברור שמדינות אוטוריטריות ותאבות כוח לא יחדלו מן המאמצים הללו, ולכן גם במערב אין לחדול מהם, בדומה לעיקרון ההרתעה של השמדה הדדית מובטחת, כמו בימי המלחמה הקרה. האם אנחנו בפתחו של מירוץ חימוש חדש בדומה למירוץ החימוש הגרעיני, אבל הפעם של בינה מלאכותית? בהחלט ייתכן.

לבינה מלאכותית כיום יש עדיין שפע של בעיות.

אחת הבעיות המהותיות של GPT (מודל הלמידה שמאחורי ChatGPT, חשוב לעמוד על ההבדל של מה שנקרא "הזיות מידע". מודלי הבינה המלאכותית,

יכולים להשלים ולאלתר פערי מידע שקיימים אצלם,

ופשוט להמציא דברים שחסרים להשלמת המשימה המבוקשת.

המכונות פשוט ממציאות פרטים ועובדות שאינם קיימים או שגויים.

הבעייתיות היא שמי שלא בעל ידע קודם בתחום שעליו משיבה הבינה המלאכותית

ויכול לבחון את הטקסט שלה בעין ביקורתית,

כמו תלמידי תיכון או סטודנטים לתואר ראשון - עשוי לחשוב שמדובר בעובדות מוצקות,

כי הבינה המלאכותית לרוב מפיקה טקסטים שנראים במבט חטוף קוהרנטיים וידעניים,

אבל בבחינה מדוקדקת יותר, מסתבר שהם לא. בעיה אחרת, נוגעת לזיהוי עצמים בתמונות.

בתהליך האימון של הבינות המלאכותיות שנוצרו,

כדי לזהות טוב ומהר גידולי עור סרטניים עשויות להיווצר הטיות משונות,

שאנחנו כבני אדם יודעים לברור - אבל הבינה המלאכותית - לא.

כך בינה מלאכותית שאומנה לזהות גידולי עור ושומות שעשויות להיות סרטניות

נטתה לסווג כל צילום שהכיל סרגל או סרט מדידה ליד השומה כשומה מסוכנת,

בגלל שבמודל האימון שלה הרבה תמונות של שומות סרטניות,

הכילו סרט מדידה או סרגל, כי היה צריך למדוד את גודל והיקף השומה הסרטנית.


אז תגידו לי אתם: האם העולם כולו ישכיל לעצור

את המעצמות הטוליטאריות?

לא בטוח,

נדע רק כאשר נגיע לגשר הזה.


Comentários


bottom of page