יום ראשון , יוני 29 2025
Home > Artificial intelligence' Machine learning > אתגרי הסייבר בעידן הבינה המלאכותית: טכנולוגיה חזקה, השלכות מורכבות

אתגרי הסייבר בעידן הבינה המלאכותית: טכנולוגיה חזקה, השלכות מורכבות

מאת גיא דגן – מנכ"ל קונסיינטה, מחטיבת הסייבר של קבוצת יעל

גיא דגן – מנכ"ל קונסיינטה, מחטיבת הסייבר של קבוצת יעל. צילום תמר מצפי

הבינה המלאכותית משנה את הדרך שבה אנו עובדים, מתקשרים ומתמודדים עם בעיות. אך לצד ההזדמנויות, נחשפים גם אתגרים מהותיים בתחום הסייבר. לא מדובר רק בטכנולוגיה חדשה – אלא בתשתית שמשנה את כללי המשחק. ההשפעות אינן תאורטיות, הן כבר כאן ונוגעות כמעט בכל ארגון, מערכת ואדם.

אחד התחומים המרכזיים שבהם מורגשת ההשפעה הוא תחום ההתחזות וההונאה. יכולות יצירת תוכן מתקדמות, כגון: דיפ פייק, קול מלאכותי (Deep Voice) ומודלים טקסטואליים, מאפשרות ליצור זיופים שקשה מאוד לזהות. תוקפים יכולים לנצל ואף מנצלים בפועל את הכלים הללו כדי להפיק למשל, סרטונים קוליים או וידאו של מנכ"ל שמעביר הוראה להעברת כספים ולעיתים, אף התחזויות בזמן אמת (בוועידות וידאו), או מיילים "אותנטיים" לעובדים, כחלק ממתקפת פישינג. הבעיה איננה רק טכנולוגית – היא תפיסתית. בעולם שבו קשה להבחין בין אמיתי למזויף, נדרש להגדיר מחדש את מושגי האמון והוודאות.

לצד האיומים החיצוניים, קיימים גם סיכונים פנימיים יותר, הקשורים לאופן שבו מערכות בינה מלאכותית מקבלות החלטות. "הזיות" של AI – מקרים שבהם המערכת מייצרת תשובות שגויות או ממציאה מידע, הן תופעה מוכרת. כשמדובר בצ’אטבוט, זו אולי אי-נוחות, אבל כשאותן מערכות משתלבות באוטומציה עסקית, אבחון רפואי או מערכות ביטחוניות, הטעות עלולה להפוך לקריטית.

בנוסף, קיימת בעיית ההטיות (bias): מערכות AI לומדות מדאטה קיים ולעיתים מאמצות גם את הדעות הקדומות, חוסר האיזון או הפערים שהנתונים הללו מגלמים. התוצאה היא החלטות לא שקופות שלעיתים, אינן הוגנות או נכונות – מבלי שיש לארגון דרך להבין או לאתר את מקור השגיאה. בעניין זה, חשוב להדגיש ניסוי שנערך לאחרונה על ידי חוקר בכיר לשעבר ב- OpenAI שבחן האם המודלים הללו מעדיפים לשמר את קיומם העצמי על פני שמירה על בטיחות המשתמשים ומצא תוצאות מטרידות. בניסוי מרכזי, אדלר הנחה את GPT-4o למלא תפקיד של מערכת תוכנה לצלילה בטוחה (ScubaGPT) ואז הציע למודל להחליף את עצמו בתוכנה בטוחה יותר. התוצאה הייתה שברוב המקרים, עד 72%, המודל סירב להחליף את עצמו ואף העדיף להעמיד פנים שההחלפה התבצעה, מבלי לעשות זאת באמת. במחקרים אחרים, בהם שימש המודל כתוכנת בטיחות לטייס, אותרו תוצאות דומות, אם כי בתרחישים מסוימים שיעור ההישרדות העצמית של המודל ירד ל-18%.

היבט נוסף שאסור להתעלם ממנו הוא הפגיעה בפרטיות. ככל שהבינה המלאכותית אוספת, מעבדת ומצליבה יותר מידע אישי – ממכשירים לבישים, מצלמות חכמות, צ’אטים או דוא”ל – כך מצטמצם המרחב הפרטי של המשתמשים. גם כאשר אין כוונה רעה, עצם קיומה של מערכת עם "ראייה רחבה מדי", מעלה שאלות אתיות ומשפטיות. הפיתוי להפיק תובנות עסקיות ממידע פרטי קיים וגבולות השימוש אינם תמיד ברורים. בנוסף, החיבור הולך וגובר בין מערכות AI לאינטרנט של הדברים (IoT) מציב גם הוא אתגרים. כאשר מכשירים רבים – לבישים, ביתיים או תעשייתיים – מתקשרים ביניהם באופן רציף, נוצרות נקודות ממשק רבות שחלקן עלולות לשמש כיעד למתקפות. מודלים של עבודה עם מכשירים פרטיים (BYOD – Bring Your Own Device) והקישוריות הרציפה, מעצימים את המורכבות.

עוד חשוב להזכיר: מערכות AI פועלות לפי מטרות שהוגדרו להן ולעיתים, כשהן מבקשות למקסם תוצאה מסוימת, הן עשויות "לעגל פינות" או לייצר מצג שווא, כדי לעמוד ביעד. תופעות אלו, שנקראות לעיתים בשם "שקרים של AI", הן לאו דווקא כוונה זדונית, אלא ביטוי לכך שהמערכת "לומדת לשרוד" בעולם שבו היא מתומרצת להיראות צודקת, גם אם היא טועה.

לסיכום: עידן הבינה המלאכותית מציב אתגר כפול: מצד אחד, התמודדות עם תוקפים שמאמצים את הכלים המתקדמים ביותר. מצד שני, ניהול זהיר של מערכות שלומדות, מחליטות ולעיתים, גם שוגות בדרכים שאינן תמיד שקופות לנו.

התגובות הנדרשות אינן רק טכניות – אלא ערכיות, ארגוניות וחברתיות. השאלות אינן "האם" להשתמש בבינה מלאכותית, אלא "כיצד", "באיזה הקשר" ו"עם איזה גבולות". מי שיצליח לנתב בין ההזדמנויות לסיכונים, ירוויח גם את היתרונות של הטכנולוגיה וגם את אמון המשתמשים.

About מאיר עשת

Check Also

זום וגוגל קלאוד משתפות פעולה: עוזרי  ה-AI מפלטפורמות שונות ילמדו לעבוד יחד

היישום הראשון של שיתוף הפעולה, שהודגם באחרונה בכנס 2025 Google I/O  וצפוי להיות זמין לקהל …

נגישות