top of page

עושים שימוש ב־AI לכתיבת קוד? ? הסכמים מסחריים? כדאי שתכירו את הסיכונים המשפטיים

  • Writer: Moshe Rofeh
    Moshe Rofeh
  • Nov 15
  • 3 min read

Updated: Nov 21

ree

הכניסה של כלי AI לעולם הפיתוח יצרה מהפכה של ממש. צוותי פיתוח עובדים מהר יותר, עלויות פיתוח יורדות ולכאורה גם מספר הבאגים מצטמצם. אך לצד היתרונות המשמעותיים ישנם סיכונים משפטיים כבדים שאי אפשר להתעלם מהם. רבים מהיזמים מאמצים את הטכנולוגיה מתוך רצון לייעל תהליכים, אך רק מעטים מבינים כיצד להשתמש בה בצורה בטוחה שלא תסכן את החברה ולקוחותיה.

ֿ

אחד הסיכונים המרכזיים נוגע בזכויות היוצרים בקוד שנוצר על ידי הפלטפורמה. השאלה למי שייך הקוד או בכלל הרעיון העיסקי שחשבתם עליו יחד עם המודל המבוסס AI, אינה שאלה תיאורטית אלא סוגיה מהותית שפוגשת רבים מאיתנו בכל יום.


רוב מערכות ה AI מציינות כי המידע/פלט/קוד שהן מייצרות עשוי להתבסס על מאגרי מידע פתוחים ואף על קוד הקיים ברשת. במקרים כאלה עלול הקוד להכיל רכיבים המוגנים בזכויות יוצרים או להיות כפוף לרישויים מחייבים כמו GPL. המשמעות היא חשיפה לתביעה או לדרישה מיידית להפסיק את השימוש בקוד, גם אם הסטארטאפ כלל לא היה מודע למקורו.


סיכון נוסף טמון בדליפת קוד פנימי למאגרי האימון של המודל. מפתחים רבים מזינים לקוד הפנימי של החברה לתוך כלי AI מתוך רצון לקבל פתרון מהיר אך לא מודעים לכך שהמידע עשוי להישמר במערכות הספק ואף לשוב ולהופיע אצל משתמשים אחרים. הסיכון גדל במיוחד בחברות הפועלות בתחומים רגישים שבהם לקוד יש משמעות עסקית או טכנולוגית עמוקה.


נושא אחריות הוא נדבך מרכזי נוסף. כלים המייצרים קוד אינם נושאים באחריות כלשהי לתקלות או נזקים שעלולים להיגרם מהשימוש בו. מבחינה משפטית האחריות לבאגים, כשלי אבטחה או תקלות בפרודקשן מוטלת על החברה בלבד גם אם השגיאה מקורה בקוד שהופק על ידי המערכת. זו הסיבה שאסור לשלב קוד חדש ישירות בסביבת הייצור ללא ביקורת קפדנית.


גם תחום אבטחת המידע מושפע עמוקות משימוש בקוד שנוצר באופן אוטומטי. במקרים רבים הקוד אינו עומד בסטנדרטים הנדרשים וכולל חולשות כגון חשיפת טוקנים, שימוש לא מוצפן במידע או הטמעת ספריות שאינן מאובטחות. חולשה אחת עלולה להספיק כדי לחשוף את החברה לסיכון משמעותי.


שימוש בנתונים רגישים במהלך השימוש בכלים אלו מהווה סיכון נוסף. יש לוודא שלא מוזנים נתוני לקוחות או מידע אישי ושמדיניות הכלי תואמת את דרישות ה GDPR והרגולציה המקומית. אי עמידה בתקנים אלו עלולה להוביל לקנסות משמעותיים ולהטלת אחריות על החברה גם אם הנזק נגרם כתוצאה מהשימוש במערכת של צד שלישי.


כאשר מוצר הנמכר ללקוחות כולל קוד שמקורו בכלי AI נוצר גם סיכון של אחריות מקצועית. אם מתרחשת תקלה אצל הלקוח החברה היא זו שתישא בתוצאות גם אם מקור הטעות הוא בקוד שנוצר על ידי המערכת. מצב זה דורש בחינה מעמיקה של הסכמי השירות וניהול סיכונים מדויק.


מעבר לכך יש להביא בחשבון את הרגולציה העתידית. האיחוד האירופי מקדם את ה AI Act וארצות הברית מגבשת הנחיות בטיחות מקיפות. סביר להניח שבשנים הקרובות יידרשו שקיפות, תיעוד וגילוי מלא על קוד שנכתב באמצעות AI. חברות שלא ייערכו לכך בזמן עלולות להתקל במכשולים רגולטוריים משמעותיים.


כדי להתמודד עם מכלול הסיכונים ולמזער חשיפה משפטית מומלץ לבנות מדיניות פנימית ברורה לשימוש ב AI, לקיים ביקורות קוד מחייבות, לתעד את מקור הקוד ולוודא שהכלים שבהם משתמשים אינם שומרים או עושים שימוש חוזר בקוד הפנימי של החברה. בנוסף יש להתאים את ההסכמים מול לקוחות כך שישקפו את השימוש שלכם בפלטפורמות השונות במסגרת יצירת הקניין של החברה.


עקרונות לסעיף בהסכם:


״החברה עושה שימוש בכלי בינה מלאכותית כחלק מתהליכי הפיתוח והבקרה, אך כל קוד המשולב במוצר הסופי עובר בחינה מקצועית מלאה ואינו מוטמע באופן אוטומטי. כל הזכויות בקוד נשארות בבעלות החברה, והלקוח מאשר כי השימוש בכלים אלו אינו מקנה לצד שלישי כל זכות במוצר. החברה מתחייבת להשתמש רק במערכות שאינן שומרות או עושות שימוש חוזר בקוד הפנימי של החברה וכל אחריותה כפופה להוראות ההסכם״.


במשרדנו אנו מלווים חברות הייטק וסטארטאפים בשילוב כלי AI בתהליכי פיתוח, בניסוח מדיניות מתאימה ובהתאמת הסכמי השירות כדי להבטיח הגנות משפטיות מיטביות ולצמצם את החשיפה לסיכונים.


מעוניינים לבדוק כיצד השימוש ב AI משפיע על ההגנות המשפטיות של החברה שלכם נשמח לסייע.


האמור בכתבה אינו מהווה ייעוץ משפטי וכל מוצר או מקרה דורש בחינה פרטנית.



 
 
 

Comments


Talk to
Our Lawyers

Get in touch to book a legal consultation.

Choose Practice
bottom of page