הקדמת מערכת "ידע וסקרנות דיגיטלית"
לאור חלקי וחלקיקי המידע המתפרסמים לאחרונה בתחומי הבינה המלאכותית AI , ניסינו לגבש סקירה אינטגרטיבית המנסה לעשות סדר והבנה בתחום החדשני הזה (גרסה מס' 6).
נקודות עיקריות
- החידוש הגדול של הבינה המלאכותית מהדור השני הוא היכולת שהיא מקנה למחשב, לא רק לאגור ולשלוף מידע, אלא גם לעבד אותו , ללמוד ממנו, ולהפיק ממנו תוצר חדש.
- עדי מור־בירן ממיקרוסופט : עד 2021, הבינה המלאכותית לא הייתה רלוונטית להרבה שפות, וה־AI שולב בעיקר בארגונים. אלא שאז פיתחו את מודלי שפה הגדולים, שיטה שמבוססת על למידה עמוקה, והדבר היווה את הבסיס לבינה מלאכותית
- באמצעות יישומים מבוססי בינה מלאכותית יוצרת (Generative AI) כל אחד מאיתנו יכול להפוך למעצב, מוזיקאי, כותב וצייר עם אפס כלים וללא ידע טכני. הממשקים הללו מסוגלים ליצור תוך שניות שירים, מאמרים, עבודות מוזיקה, סרטונים, תמונות ומשחקים – וזה רק קצה הקרחון.
- שני יישומים המובילים בהקשר זה הנם Midjourney אשר באמצעותו ניתן ליצור תמונות מרהיבות מפקודות טקסט ו- Chat GPT – צ'טבוט אשר באמצעותו ניתן לנסח בצורה רהוטה ואינטליגנטית כל תוכן שיעלה בדעתכם
- דו"ח של מקינזי (2023) מפרט אתגרים שעימם יצטרכו להתמודד מנהיגים ורגולטורים בנוגע לבינה מלאכותית, כולל חששות שהתוכן שנוצר על ידי כלי בינה מלאכותית הוא מטעה או לא מדויק.
- חברות טכנולוגיה ש"קוצרות" את האינטרנט כדי לאמן את מערכות ה־AI שלהן פועלות על בסיס העיקרון ש"אנחנו יכולים לקחת את זה, ולכן זה שלנו", אמרה אמילי מ' בנדר, בלשנית חישובית מאוניברסיטת וושינגטון. בנד מוסיפה כי הפיכת הטקסטים האלה – החל בספרים, מאמרים במגזינים ופוסטים אישיים בבלוגים וכלה בפטנטים, מסמכים מחקריים והתוכן של וויקיפדיה – לתשובות שפולט צ'טבוט, מפשיטה את החומר הזה מהלינקים למקורות שלו. זה גם מקשה על משתמשי הצ'טבוטים לוודא את אמינות מה שהצ'טבוט אומר להם – בעיה מבחינת מערכות שלעתים קרובות אומרות דברים שאינם נכונים
- אף שהשם "בינה מלאכותית" כבר נטוע עמוק בתוך השיח, לשוב לפרק את המושג. "'בינה מלאכותית' היא מונח שיווקי. גם אם משתמשים במינוח הזה, חשוב להבהיר כי אין כאן שום ביטוי של אינטליגנציה, הבנה או ידע. זהו כלי סטטיסטי, מרשים ככל שיהיה. אין ל-AI יכולת אמיתית להבדיל בין אמת לשקר, בין עובדה לבדיה."
- GPT-4-אמנם, יש כלי בדיקה ותוכנות למיניהן, אבל ב-60% מהמקרים הם טועים לחשוב שטקסט שחיבר Gpt-4 חובר בידי בן אנוש, לעומת 20% של טעויות מסוג זה לגבי טקסטים שחיבר Gpt-3.5. מצד שני, למרות היכולות משופרות –האתגרים נשארו: התשובות שמתקבלות כלליות מדי, לעיתים המידע שגוי, מומצא-לחלוטין או לא מעודכן.
- למרות שה-AI של בארד (גוגל) מאומן בדיאלוגים ושיחות אנושיות, הוא גם משתמש בנתוני חיפוש כדי לספק מידע בזמן אמת. ובכל זאת, גם בארד של גוגל יכול לפעמים ליצור תגובות עם שגיאות עובדתיות.
הסקירה המלאה
הדור הראשון של הבינה המלאכותית
בחודשים האחרונים הביטוי AI או בעברית – בינה מלאכותית , נמצא בכל מקום, אבל מה בעצם המשמעות שלו? מערכות מבוססות בינה מלאכותית קימות כבר עשרות שנים, והן למעשה נערכות מחשב חזקות המוזנות בכמויות ענק של מידע ומנתחות אותו על מנת למצוא בו תבניות או דפוסים. בהמשך , המערכות המערכות הללו משתמשות בתבניות שזיהו, על מנת לבצע תחזיות , או להחליט החלטות הנוגעות לנושאים אותם למדו (חנן שטיינהרט , 2023)
הדור השני של הAI
בעשור האחרון חלה התקדמות משמעותית בשני תחומים קריטיים להתפתחות התחום : כמות המידע הדיגיטלי הנגיש ( בעיקר באינטרנט) וכוח מיחשוב גדול המאפשר לעבד כמויות דאטה אדירות בזמן קצר .
החידוש הגדול של הבינה המלאכותית הוא היכולת שהיא מקנה למחשב, לא רק לאגור ולשלוף מידע, אלא גם לעבד אותו , ללמוד ממנו, ולהפיק ממנו תוצר חדש.
בשנת 2017 הגיעה קפיצת מדרגה חשובה נוספת, בתחום הנקרא "אימון מכונה". ההתפתחות הזו איפשרה בנייה של מערכות פורצות דרך המוכרות בשם GPT, כמו בצ'אט בוט הפופולרי CHATGPT שהפך לשם נרדף לבאזז סביב התחום.
רשתות GPT משתמשות בארכיטקטורה חדשנית ("טרנספורמר") המאפשרת לעבד בן-זמנית כמויות אדירות של מידע , להבין אותו בצורה יעילה , לבצע הקשרים של מושגים בשפה הטבעית , ובהמשך גם להפיק מהניתוח הזה תובנות. לאחרונה , נוספה לטכנולוגיה הזו עוד שכבה, שמאפשרת לאותם מודלים של שפה להסביר ולנמק פעולות ובחירות שלהם.
כך יכולות תוכנות מחשב אוטונומיות ובוטים הפועלים באינטרנט לקלוט כמויות גדולות של טקסט, ללמוד את התבניות וההקשרים שבהם , ולהפיק טקסט מקורי הכולל תשובות לשאלות או עונה על שורת משימות. (חנן שטיינהרט , 2023)
הדור השני : בינה מלאכותית מסוג AGI
מומחים שפועלים בתחום הבינה המלאכותית משתמשים בשורה מורכבת של סיווגים, טכנולוגיות וגישות, כל אחד מהם בעל נתיב התפתחות אחר. אך ככלל ולצורך הפישוט ניתן לחלק את ה”טכנולוגיה” לשני סוגים: בינה מלאכותית (AI) “חלשה”, במובן שהיא חלשה יותר מהאינטליגנציה האנושית; ובינה כללית מלאכותית (AGI) שהיא “חזקה” וזהה באופן עקרוני לאינטליגנציה האנושית. כלומר, מכונה שיש לה יכולות קוגניטיביות שאמורים לאפשר לה לעשות פעולות מורכבות ללא הכשרה מוקדמת ובלי יד מכוונת, להשתמש בשפה ולהבין מושגים מופשטים.
בינה מלאכותית יוצרת (Generative AI)
מערכות בינה מלאכותיות שמטרתן לייצר דברים חדשים ולא, נגיד, לסווג דברים קיימים. הדוגמאות החמות ביותר הן מחוללי תמונות מסוגו של DALL-E2, שמייצרים תמונות על בסיס כיתובים טקסטואליים, ומודלים של שפה מסוגו של GPT-3 שיכולים לכתוב סלוגן שיווקי עבור העסק שלכם. חייבים לומר שהיצירות החדשות נמצאות הרבה רמות מתחת למה שקרוי בשפה האנושית דמיון, ולא מתעלות עדיין מעל לרמה של חקיינות (דניס ויטצ'בסקי , 2022 )
באמצעות יישומים מבוססי בינה מלאכותית יוצרת (Generative AI) כל אחד מאיתנו יכול להפוך למעצב, מוזיקאי, כותב וצייר עם אפס כלים וללא ידע טכני. הממשקים הללו מסוגלים ליצור תוך שניות שירים, מאמרים, עבודות מוזיקה, סרטונים, תמונות ומשחקים – וזה רק קצה הקרחון.
שני יישומים המובילים בהקשר זה הנם Midjourney אשר באמצעותו ניתן ליצור תמונות מרהיבות מפקודות טקסט ו- Chat GPT – צ'טבוט אשר באמצעותו ניתן לנסח בצורה רהוטה ואינטליגנטית כל תוכן שיעלה בדעתכם (מקור)
הבינה המלאכותית היוצרת הפכה למילת באז בחודשים האחרונים בזכות אפליקציות כמו צ'אט GPT ופיצ'רים של D-ID ודומיהן, אבל הטכנולוגיה שולחת זרועות ארוכות הרבה מעבר לעולמות היצירה, התוכן והתרבות הפופולרית.
הבינה המלאכותית היוצרת היא כלי נוסף בערכת הכלים שלכם.
- כמו שאר הכלים לעבודות קריאייטיב, נדרש אדם שיתפעל גם את הבינה המלאכותית היוצרת.
- יש עקומת למידה שאיתה צריך להתמודד כדי ליצור עבודות איכותיות באמצעות הבינה המלאכותית היוצרת.
אחד התחומים המסעירים שהבינה המלאכותית היוצרת חודרת אליהם הוא עולם הרפואה. לפני חודשיים, בינואר 2023, השיקה חברת Evozyne בשיתוף אנבידיה פיתוח של חלבון חדש שנוצר באמצעות מודל הבינה המלאכותית לתחום הביולוגיה -, NVIDIA BioNemo. . לחלבון, שפותח בסיוע בינה מלאכותית יוצרת יש את היכולת, בין היתר, לזהות ולרפא מחלות גנטיות. מדובר בלא פחות ממהפכה.
פיתוח רפואי נוסף הוצג לאחרונה על ידי חוקרים מאוניברסיטת קינגס קולג' לונדון, שהשתמשו במחשב העל NVIDIA Cambridge-1 כדי להפיק כמאה אלף סריקות של המוח האנושי. מדובר בכמות עצוצה של הדמיות שיצר מודל של בינה מלאכותית, והן יכולות לשמש רופאים וסטודנטים לצרכי הדרכה, למידה ומחקר בתחום הנוירולוגי (מקור)
רוב המחקרים בנושא ההשפעה הכלכלית של הבינה המלאכותית לא מביאים בחשבון סיכונים אחרים שעלולים להיות טמונים בטכנולוגיה, כמו הפצת פייק ניוז או יציאה משליטה אנושית.
דיוויד אוטור, פרופסור לכלכלה מ-MIT, מזהיר כי בינה מלאכותית יוצרת "לא תהיה קסומה כפי שאנשים טוענים", ומוסיף כי "אנחנו בשלב מאוד מאוד מאוד מוקדם".
רוב הערך הכלכלי של הבינה המלאכותית היוצרת יגיע כנראה מעזרה לעובדים אנושיים באוטומציה של משימות בשירות לקוחות, מכירות, הנדסת תוכנה ומחקר ופיתוח, לפי הדו"ח של מקינזי. בינה מלאכותית יוצרת מעניקה "כוחות על" לעובדים בעלי כישורים גבוהים, משום שהטכנולוגיה יכולה לסכם ולערוך תכנים
הדו"ח של מקינזי פירט גם אתגרים שעימם יצטרכו להתמודד מנהיגים ורגולטורים בנוגע לבינה מלאכותית, כולל חששות שהתוכן שנוצר על ידי כלי בינה מלאכותית הוא מטעה או לא מדויק.
בינה מלאכותית יוצרת יכולה להצמיח יישומים רבים ושונים עבור קהלים מכל שכבת גיל ורמת השכלה, ובכל מקום שיש בו גישה לאינטרנט. כל זה מתאפשר מכיוון שצ'אטבוטים של בינה מלאכותית יוצרת מופעלים באמצעות מודלי בסיס (foundation models – ) רשתות עצביות נרחבות שאומנו על כמויות אדירות של נתונים לא מובנים ולא מתויגים במגוון רחב של פורמטים, כמו טקסט ושמע. מודלי בסיס יכולים לשמש למגוון רחב של משימות. דורות קודמים של מודלי בינה מלאכותית היו לעיתים קרובות "צרים", כלומר יכלו לבצע משימה אחת ויחידה, כמו למשל לחזות שיעור של נטישת לקוחות. לעומת זאת, מודל בסיס יחיד יכול, למשל, לחבר תמצית מנהלים לדוח טכני של 20,000 מילים על מחשוב קוונטי, לנסח אסטרטגיית חדירה לשוק עבור עסק לגיזום עצים ולהציע חמישה מתכונים שונים עבור עשרה מצרכים שמצאת במקרר. חסרונה של הרבגוניות הזאת טמון בכך שלפחות בינתיים, בינה מלאכותית יוצרת מספקת לפעמים תוצאות מדויקות פחות. לכן יש צורך לשוב ולהקדיש תשומת לב לניהול הסיכונים של בינה מלאכותית (מקור)
GPT-3, מודל השפה של חברת OpenAI, אולי יכול לדמות בן אדם בשיחה, אבל זה נעשה ללא שום סוג של תבונה. המערכות האלה משתמשות בסט המידע שעליו הן אומנו כדי לייצר נגזרות של המידע הזה, אבל הן לא מסוגלות לשבור את הפרמטרים של התכנות שלהן ו"לדמיין" משהו אחר לגמרי.
ההתלהבות מהמודלים האלה בימינו מקורה בפריצות דרך שנעשו בעשור האחרון ביכולות יצירת בסיסי נתונים גדולים מספיק שעליהם אפשר לאמן את הבינה המלאכותית. אתרים חברתיים כמו Reddit, שירותי אחסון תמונות, אתרי וידאו דוגמת יוטיוב – כולם יכולים לספק לחוקרים המעוניינים לאמן AI כזה את חומר הבסיס הנדרש. עדיין מדובר בתהליך מסובך ויקר מאוד, אבל יש חברות עם כיסים עמוקים מספיק כדי להשקיע את הזמן והמאמץ (דניס ויטצ'בסקי, 2022)
החידוש העיקרי יצירת יש מאין
עדי מור־בירן ממיקרוסופט הסבירה כי עד 2021, הבינה המלאכותית לא הייתה רלוונטית להרבה שפות, וה־AI שולב בעיקר בארגונים. אלא שאז פיתחו את מודלי שפה הגדולים, שיטה שמבוססת על למידה עמוקה, והדבר היווה את הבסיס לבינה מלאכותית – ואפשר לשחרר את Chat-GPT בנובמבר 2022. כיום יש כבר 2 מיליארד משתמשים בשירות.
מיקרוסופט ו-OpenAI המשיכו לעמול על שיפור המערכות, ושחררו את גרסה 4, הדור הבא של המודל. לפי מור־בירן, הביצועים ששופרו הובילו לכך שהמערכת עברה את מבחני הלשכה של עורכי הדין בכמה מדינות בארה"ב, ומבחני רפואה ב־40 מדינות בארה"ב. מאחר שהמערכת יודעת כיום לייצר טקסטים או תמונות "יש מאין" בצורה טובה, משנה לחלוטין את השוק.
לפי מור־בירן, ישראל חשובה למיקרוסופט, ויש גם גאוות יחידה: לא מעט מכלי הבינה המלאכותית של החברה מפותחים בישראל, ובהם הכלים של אקסל, טימס ועוד (מקור).
- מידע כזב”,דיפ-פייק” והשלכות על אמון הציבור ועל מוסדות דמוקרטיים: מודלי שפה חדשים וכלי בינה מלאכותית העושים בהם שימוש, מקלים על יצירת דיסאינפורמציה – תוכן מטעה במתכוון, התאמה שלו לנמענים, והפצתו בהיקפים ניכרים ובקלות. גישות רווחות לצמצום הבעיה כגון בדיקת עובדות, חינוך משתמשים ושיפור האוריינות שלהם לא בהכרח יעילים כנגד דיסאינפורמציה המפותחת בכלי .AI עם זאת, חברות בתחום עוסקות בפיתוח כלי AI לשם זיהוי ותיוג של תוכן שנוצר באמצעות .
- AI, הטיה ואפליה אלגוריתמית: מערכות מבוססות בינה מלאכותית עושות שימוש רב בבסיסי נתונים קיימים ובמידע המוזן אליהן ומשמש כדי לאפשר להן ללמוד. הטיות בבסיסי הנתונים או בהנחיות המוזנות למערכות כאלה, לצד טעויות מערכת אחרות, עשויות לגרום למערכות כאלה להפלות חלק מן המשתמשים. ככל שחדירתן של מערכות כאלה צפויה לגדול וסמכויותיהן ביחס לקבלת החלטות (בפרט ללא מעורבות אדם) תגדל, עלולהלהתרחש “אפליה אלגוריתמית” בהיקפים נרחבים יותר.
- קניין רוחני והשלכות על יצירה: מסמך שפרסמו לאחרונה שירותי המחקר של הקונגרס בארצות הברית מעלה שאלות מעניינות ביחס לנושא הקניין הרוחני, בהן: האם ניתן לקבוע זכויות יוצרים עבור תוכן שהופק באמצעות מערכות ?AI האם ניתן להגדיר להן “יוצר” או “מחבר” ?(Authorship) באם ניתן לרשום זכויות יוצרים, למי מוקנות הזכויות (לחברת התוכנה? למפתח? למשתמש הקצה)? כיוון שכאמור לעיל, יישומי בינה מלאכותית זקוקים לכמויות עצומות של מידע אימון, האם השימוש במידע אימון שיש עליו זכויות יוצרים נחשב להפרה שלהן? או לשימוש הוגן? והאם תוצרי בינה מלאכותית (כגון טקסטים או תמונות) נחשבים למפרים קניין רוחני במקרה של דמיון משמעותי ושל ראייה לכך שהתוכן המוגן שימש לשם אימון המודל.
- מקור
הבעיה של זכויות יוצרים
האופן בו בנויים צ'טבוטים של AIה"אלגוריתמים של מודל שפה גדול" שמניעים את הבוטים האלה זקוקים לאימון על ידי קליטה ועיבוד של כמויות עתק של שפה קיימת, כדי לנסות לחקות מה שבני אדם אומרים ואת האופן בו הם אומרים זאת. לא מדובר בסוג הנתונים שאנו רגילים להסתכל עליהם באינטרנט כסחורה, כמו למשל המידע האישי וההתנהגותי שמשמש חברות כמו מטא, החברה האם של פייסבוק, למיקוד הפצה של פרסומות.
הנתונים הללו הם התוצר היצירתי של המשתמשים האנושיים בשירותים השונים, כמו מאות מיליוני פוסטים של משתמשי רדיט. רק ברשת אפשר למצוא מצבורים גדולים מספיק של מילים שכתבו בני אדם. ובלי זה, כל הבינה המלאכותית מבוססת הצ'טים של ימינו והטכנולוגיות הקשורות לא היו עובדות.
מחקר מ־2021 של ג'סי דודג', חוקר בעמותת Allen Institute for AI, מצא שוויקיפדיה ואינספור מאמרי חדשות שמוגנים בחוקי זכויות יוצרים, ממקורות גדולים וקטנים, נמצאו באחד ממאגרי הנתונים הכי נפוצים של תוכן ש"נקצר" מהרשת. גם גוגל וגם פייסבוק השתמשו במאגר הזה כדי לאמן מודלים גדולים של שפה, ו־OpenAI
קצירת נתונים שזמינים ברשת הפתוחה היא חוקית בנסיבות מסוימות, אם כי חברות ממשיכות להתווכח על הפרטים של איך ומתי מותר להן לעשות זאת. רוב החברות והארגונים שהופכים את הנתונים שלהם לזמינים ברשת עושים זאת בגלל שהם רוצים שמנועי חיפוש יוכלו לגלות ולאנדקס את המידע, כדי להציגו אחר כך למשתמשים בתוצאות החיפוש.
חברות טכנולוגיה ש"קוצרות" את האינטרנט כדי לאמן את מערכות ה־AI שלהן פועלות על בסיס העיקרון ש"אנחנו יכולים לקחת את זה, ולכן זה שלנו", אמרה אמילי מ' בנדר, בלשנית חישובית מאוניברסיטת וושינגטון. בנד מוסיפה כי הפיכת הטקסטים האלה – החל בספרים, מאמרים במגזינים ופוסטים אישיים בבלוגים וכלה בפטנטים, מסמכים מחקריים והתוכן של וויקיפדיה – לתשובות שפולט צ'טבוט, מפשיטה את החומר הזה מהלינקים למקורות שלו. זה גם מקשה על משתמשי הצ'טבוטים לוודא את אמינות מה שהצ'טבוט אומר להם – בעיה מבחינת מערכות שלעתים קרובות אומרות דברים שאינם נכונים ( כריסטופר מימס, 2023 )
פעולות ה'קציר' העצומות האלה עלולות לשאוב גם מידע אישי עלינו. פוסט בבלוג שכתבת לפני כמה שנים ואחר כך מחקת עלול עדיין להימצא בנתונים שמשמשים לאימון ב־OpenAI, שמלמדת את מנועי ה־AI שלה באמצעות נתונים משנים של 'קציר' בכל רחבי האינטרנט, כך אמר סבסטיאן נגל, מדען דאטה ומהנדס ב־Common Crawl.
Common Crawl היא עמותה שכבר יותר מעשור 'קוצרת' חלקים גדולים מהרשת הפתוחה והופכת את מאגרי הדאטה שלה זמינים בחינם לחוקרים. מאגר הדאטה של Common Crawl הוא גם נקודת הפתיחה לחברות שרוצות להכשיר מנועי AI, כולל גוגל, מטא, OpenAI ואחרות.
שלא כמו אינדקס חיפוש, בדומה לאלה שבבעלות גוגל ומיקרוסופט, הסרת המידע האישי ממנוע AI שכבר אומן תצריך אימון מחדש של כל המודל, אמרה בנדר. בגלל שהמחיר של אימון מחדש למודל גדול של שפה עלול להיות כל כך גבוה – בסדר גודל של עשרות מיליוני דולרים, בשל הכמות העצומה של כוח החישוב שנחוצה לכך – לא סביר שחברות יעשו זאת, אפילו אם משתמש יכול להוכיח שגם מידע אישי שלו שימש לאימון ה־AI, אמר דודג'.
אבל ברוב המקרים גם קשה לגרום ל־AI שאומן על דאטה, כולל מידע אישי, לפלוט בחזרה את המידע הזה, אמר. ב־OpenAI אומרים שהחברה שינתה את המערכות מבוססות הצ'ט שלה כך שידחו בקשות למידע אישי. גם באיחוד האירופי וגם בממשל ביידן בארה"ב שוקלים להעביר חוקים חדשים ורגולציות לסוגים כאלה של AI. ( כריסטופר מימס, 2023 )
האם ChatGPT יחליף את המתכנת?
תחום הבינה המלאכותית מסמן שלב חדש בכל הנוגע לאוטומציה. מודלי שפה גדולים (LLM) כמו ChatGPT מפגינים יכולות מאוד גבוהות ביצירת תכנים טקסטואליים וגרפיים וכן ביכולת לתקשר עם בני אדם ולקיים דיאלוג אינטראקטיבי. היכולות המרשימות הללו עשויות לייתר לא מעט מקצועות, שעד כה לא העלנו בדעתנו שמחשבים יוכלו לבצע, כמו אנשי מכירות, שירות לקוחות, מורים וכדומה.
גם קוד הוא שפה, וכמו טקסטים של שפה, שורות קוד מצויות בשפע ברשת, ועל כן יש דאטה גדול של קוד שבאמצעותו ניתן לאמן רשתות נוירונים כך שיידעו לקודד לפי דרישה. האוטומציה הזו הופיעה לראשונה בדמות Github Co-pilot, וכעת גם בדמות ChatGPT 4, שמסוגל לייצר באופן אוטומטי קוד עבור משימה כלשהי.
בעולם טכנולוגי כמו שלנו, תכנות הפך לאחד המקצועות המבוקשים והנחשבים ביותר. ואולם כעת, באופן אירוני למדי, אי אפשר להתחמק מהשאלה, האם ה-AI יכולה להחליף את המתכנת?
ניר דובוביצקי, ארכיטקט תוכנה בכיר בבית התוכנה CodeValue, כבר אימץ את הכלים הללו כמו Chat GPT כחלק משגרת העבודה שלו כמתכנת. לדבריו, גם אם מדובר בכלים מאוד מרשימים, שהופכים את חייו של המתכנת לנוחים יותר, הם עדיין לא מאיימים על משרתו.
אף שהשם "בינה מלאכותית" כבר נטוע עמוק בתוך השיח, לניר חשוב לפרק את המושג. "'בינה מלאכותית' היא מונח שיווקי. גם אם משתמשים במינוח הזה, חשוב להבהיר כי אין כאן שום ביטוי של אינטליגנציה, הבנה או ידע. זהו כלי סטטיסטי, מרשים ככל שיהיה. אין ל-AI יכולת אמיתית להבדיל בין אמת לשקר, בין עובדה לבדיה."
"אחת המטרות העיקריות של קוד היא גם לתקשר למתכנת שבא אחריך את מה התכוונת לעשות, ולא רק שהקוד יעבוד. מהסיבה הזו חשוב לי מאוד המבנה של הקוד שאני כותב. קוד זה כמו סיפור, פרוזה, וחשוב לי שמתכנת אחר יבין אותו. הכלים הללו, גם כאשר הם מבצעים את המשימה, מתאפיינים בסגנון לקוי, וזה פוגע ביכולת לעבוד במשותף על קוד."
אז באיזה אופן אתה משתמש בכלים הללו?
"זה בהחלט כלי אוטומטי שמאוד מסייע. עוד קפיציה באוטומציה. אבל אני מקפיד להיעזר בו רק בדברים שאני יודע. שהרי אם זה משהו שאני לא יודע, אני גם לא אדע לבדוק ולוודא שה-AI עשה זאת כמו שצריך. בבעיות שאני מבין ויודע, אני משתמש בכלים הללו, כי זה חוסך לי המון הקלדה ויש לי ביטחון שאוכל לוודא כי הקוד נכתב כמו שצריך"
"נכון להיום, הכלים הללו עדיין לא מסוגלים לקודד ברמה גבוהה משימות מורכבות, שמצריכות הבנה עמוקה של האינטראקציה בין הגורמים. בעיות מסוג אלה הן עדיין רק ביכולתו של מתכנת מיומן ומנוסה לפתור. גם כאשר הכלים הללו ינפיקו קוד משכנע עבור בעיה מורכבת, וגם אם הקוד ירוץ היטב בסביבת פיתוח, לא תהיה לך דרך לוודא שאין בו באגים מהותיים. הכלים הללו מעצימים מתכנת, ואולי יאפשרו להפחית בכוח האדם הנדרש, אבל הן לא יכולים, ולפי שעה לא קרובים, להחליף מתכנת."
המושג "בינה מלאכותית" בעייתי גם מכיוון שהוא מטשטש את האופן שבו המודלים הללו נוצרים ופועלים. ניר דובוביצקי "כל מודל, כל רשת נוירונים, היא תוצר של הדאטה שאימן ואימת אותה. אימון המודלים הללו דורש המון דאטה ודאטה טוב. למעשה, לא תמיד ניתן לדעת מראש כמה דאטה יידרש כדי לאמן מודל מהימן, זה ניסוי וטעייה. המפתח הוא בווריפיקציה. כל זה הוא פתח להטיה – הן ברמת הדאטה המשמש לאימון והן ברמת הדאטה והאנשים האחראים לווריפיקציה. על כן, לא מעט מודלים כאלה חושפים הטיות מגדריות ואתניות, כמו למשל יישומי זיהוי פנים מסוימים, שמגלים יכולות גבוהות מאוד בזיהוי בני אדם לבנים, אך כושלים לחלוטין בזיהוי אנשים שחורים. ההטיה נעוצה בדאטה ששימש לאימון ולאימות המודל."
"למעשה, אי אפשר לעשות וריפיקציה מושלמת, תמיד תהיה הטיה באופן שבו בדקנו את המודל. על כן, צריך לערב בני אדם בתהליך האימון ובתהליך האופרציה, כדי להיות על המשמר ולתקן את הטעויות. צריך להיות מאוד זהירים, בעיקר כאשר מדובר במערכות שנוגעות לחיי אדם כמו מערכות נהיגה אוטונומיות. במערכות כאלה כל הטיה עלולה לסכן חיי אדם."
אתגרים והזדמנויות
בעוד שילוב בינה מלאכותית בעברית מציג הזדמנויות מלהיבות, הוא מגיע גם עם סט אתגרים משלו. עברית היא שפה מורכבת בעלת מבנים דקדוקיים וניואנסים ייחודיים. פיתוח מודלים של בינה מלאכותית להבנה מדויקת ויצירה של טקסט עברי דורש מחקר ופיתוח נרחבים.
אחד האתגרים המרכזיים בתחום הבינה המלאכותית לעברית הוא המחסור במערכי נתונים מתויגים בקנה מידה גדול. אימון מודלים של בינה מלאכותית דורש כמויות עצומות של נתונים, אך זמינות הנתונים המסומנים בעברית מוגבלת יחסית לשפות אחרות. חוקרים עובדים באופן פעיל על יצירה והרחבה של מערכי נתונים אלה כדי להתגבר על אתגר זה (מקור ).
לחברת AI21 Labs הישראלית יש שני מוצרים, אחד לכתיבה (שמציע פיצ'רים כמו שכתוב הטקסט והצעת חלופות), ואחד לקריאה (שמסכם טקסט ארוך לקטעים קצרים). אורי גושן, מנכ"ל משותף בחברה, מודה שגם במוצרים שלהם יש בעיה בשפה העברית. "מדובר בתכונה אינהרנטית של מודלי שפה ובדרך בה מאמנים אותם", הוא מסביר. "לוקחים את כל הקורפוס האינטרנטי (מאגר טקסטים המשמש לניתוחים ומחקר, נ"ט) ונותנים למערכת לחזות את המילה או רצף המילים הבאות. אנחנו חברה מסחרית, כך שרוב השוק בשפות אחרות ובלבד בשפה האנגלית".( נבו טרבלסי , גלובס , 27 לינואר 2022 ) .
Gpt-4
בתחילת מרץ 2023 השיקה חברת OpenAI דגם משוכלל יותר, Gpt-4, שפתוח למנויים בתשלום לא גבוה. יכולותיו גבוהות בצורה ניכרת מהמודל הקודם, והוא הצליח לעבור בהצלחה רבה מבחני לשכה של עורכי דין ורואי חשבון. המודל החדש גם פותר חידות היגיון ובעיות מילוליות. התשובות המילוליות שהוא נותן הרבה פחות תבניתיות ושבלוניות מהמודל הקודם, GPT-3.5 שהושק בנובמבר 2022 והיה הראשון שפרץ לתודעת הציבור הרחב. הטקסטים ש-Gpt-4 מייצר נראים גמישים ואנושיים יותר.
אמנם, יש כלי בדיקה ותוכנות למיניהן, אבל ב-60% מהמקרים הם טועים לחשוב שטקסט שחיבר Gpt-4 חובר בידי בן אנוש, לעומת 20% של טעויות מסוג זה לגבי טקסטים שחיבר Gpt-3.5. מצד שני, למרות היכולות משופרות –האתגרים נשארו: התשובות שמתקבלות כלליות מדי, לעיתים המידע שגוי, מומצא-לחלוטין או לא מעודכן.
אבל יש כמה פתרונות: Gpt-4 מאפשר לחפש באינטרנט העדכני, כלומר מספק מידע מעודכן, וגם נותן הפניות נכונות ומראי מקום מדויקים למקורות אמיתיים של מידע, שמאפשרים לבדוק את אמינות התשובה המתקבלת.
Gpt-4 מאפשר גם לבצע חישובים מתמטיים גבוהים באמצעות שפה טבעית, כולל הצגת הדרך שבה הגיע לפתרון במילים ובנוסחאות.
האתגר העיקרי: ללמוד לחבר פרומפטים
האתגר שהוא אולי הגדול ביותר של מערכת החינוך, ולא רק שלה, הוא לרכוש ולשכלל את המיומנות לחבר פרומפטים, שאילתות, מתאימים, כולל שאלות המשך שמדייקות, מחדדות ובודקות את האמינות של התשובות שנותנת המכונה. אחרי הכל, מה שנכניס למערכת, זה מה שנקבל ממנה בסופו של דבר.
חיוני להבהיר לתלמידים ולמורים את הצורך והחובה להתייחס לתוצרי המכונה כאל המלצה שצריך לבדוק ולאמת את נכונותה ואת התאמתה.
אם השאלה גדולה או כללית מדי, יעלה הסיכוי לטעויות. ניתן לומר כי "הבעיה" היא בבינה המלאכותית, ו"הפתרון" הוא בבינה האנושית.
כדי לחסוך זמן, מומלץ מאד להשתמש בשיטות עבודה מתאימות. לצורך זה ניתן להיעזר בחוברת
אוגדן פרומפטים מנצחים ללמידה ולהוראה שהכין מרכז המו"פ של מכון מופ"ת, לפי הטקסונומיה של בלום.
הבדלים בין מודלים של בינה מלאכותית בשירות מיקרוסופט וגוגל
מנוע החיפוש בינג משתמש בטכנולוגיה מתוצרת OpenAI בשם GPT-4, בעוד שבארד משתמש במודל LaMDA של גוגל. המשמעות היא שבינג טוב יותר ביצירת טקסט שנראה כאילו נכתב על ידי אדם, בעוד שבארד טוב יותר במתן מענה מורכב יותר עם כמה אפשרויות .
הבדל מהותי בין מודלים של בינה מלאכותית בשירות מיקרוסופט וגוגל הוא שאחד יכול ליצור תמונות והשני לא. מנוע החיפוש בינג של מיקרוסופט יכול ליצור תמונות על סמך מה שאתה אומר בטקסט, בעוד שבארד יכול ליצור תמונות על סמך מה שהוא יודע על העולם. המשמעות היא שבינג טוב יותר ביצירת תמונות יצירתיות ומושכות חזותית, בעוד שבארד של גוגל טוב יותר ביצירת תמונות מדויקות ואינפורמטיביות. לבסוף, כשזה מגיע לעובדות נכון, לבינג ובארד יש חוזקות וחולשות שונות. מודל הבינה המלאכותית המשולב במנוע החיפוש בינג מעדיף לענות על שאלות עובדתיות עם תשובה נכונה אחת, בעוד שבארד של גוגל מעדיף לענות על שאלות עובדתיות שמציעות יותר הסבר או הקשר.
כוחו של בארד (גוגל ) הוא ביכולת המתקדמת שלו להבין וליצור שפה טבעית. כמודל שפה עבור AI, בארד יכול להבין מבני שפה מורכבים, לענות על שאלות והציע טקסט יצירתי שמתאים לסיטואציה. הוא פחות ידידותי למשתמש אבל הוא עונה על מגוון רחב של משימות מבוססות שפה עם תשובות נכונות והגיוניות.
GPT-4 הוא ה-LLM ( מודל שפה ) הגדול ביותר שזמין לשימוש בהשוואה לכל הצ'טבוטם של הבינה המלאכותית האחרים. ל-GPT-4 יש למעלה מ-100 טריליון פרמטרים; בעוד של-GPT-3.5 יש 175 מיליארד פרמטרים. יותר פרמטרים פירושם, בעצם, המודל מאומן על יותר נתונים, מה שמגדיל את הסיכוי שיענה על שאלות בצורה נכונה ( מקור)
לצ'אטבוט AI ( בארד ) של גוגל יש את היתרונות שלו – ואחד מהם הוא מהירות.
גוגל בארד מהיר יחסית בתשובות שלו, גם אם מופיעות כמה שגיאות מדי פעם
בארד של גוגל גם אינו מוגבל לכמות מוגדרת של תגובות, כמו Bing Chat. אתה יכול לנהל שיחות ארוכות עם Google Bard, אבל בינג מוגבל ל-20 תשובות בשיחה אחת. אפילו ChatGPT Plus מגביל את המשתמשים ל-25 הודעות כל שלוש שעות.
לבארד של גוגל יש יתרון מבחינת חקרנות וסקרנות ( כישורים שחשוב לטפח בחינוך ובאקדמיה)
בארד של גוגל הוא כלי נהדר למי שרוצה ללמוד על נושאים שונים. כגון לסכם מידע מהאינטרנט ולספק קישורים לאתרים רלוונטיים למשתמשים על מנת לחקור בפירוט רב יותר. למרות שה-AI של בארד מאומן בדיאלוגים ושיחות אנושיות, הוא גם משתמש בנתוני חיפוש כדי לספק מידע בזמן אמת. ובכל זאת, בארד של גוגל יכול לפעמים ליצור תגובות עם שגיאות עובדתיות.
ChatGPT vs. Bard: What's the difference? [2023]
By Elena Alston · June 12, 2023
האתגרים המידעניים ( Information science challenges )
עודף בטחון עצמי
במאמר שפרסמה לפני כשלושה שבועות בכתב העת Science תיארה פרופ' סלסט קיד מהמחלקה לפסיכולוגיה באוניברסיטת קליפורניה בברקלי דרכים שונות שבהן בינה מלאכותית מעוותת את התפישה האנושית. בשיחת זום הדגישה קיד שתקשורת עם בינה מלאכותית שונה מכל תהליך למידה אחר. "כאשר מחפשים מידע במנוע חיפוש מקבלים רשימה של כמה קישורים. אין תשובה יחידה, ויש אפשרות לספוג מידע מגוון ולהעריכו מחדש. גם בתקשורת עם אנשים, למשל לצורך לימוד, הם מתארים נקודות של אי־ודאות. אנשים משתמשים בביטויים כמו 'אני חושב', 'אני לא בטוח'. AI, לעומת זאת, מספקת תשובה יחידה ומאוד מדויקת לשאלה שהופנתה אליה, בלי שתהיה לה יכולת להבחין בין עובדות לבדיון".
תשובה נחרצת
משתמשים רבים של ChatGPT ציינו את החוויה של קבלת תגובה חד-משמעית לשאילתה שלהם עדיפה על החוויה של סינון וליקוט מידע ממספר תוצאות אפשריות, במיוחד כאשר חלק מהתוצאות הללו הן מודעות בפרסום.
מתן תשובה סופית לשאלה שעשויה להכיל הרבה משתנים אינה קלה, כמובן, ומנועי החיפוש הגדולים עדיין לא יכולים לעשות זאת עבור רוב השאילתות. ChatGPT יוצא דופן ביכולת שלו לסנתז מידע כדי לייצר קטע אחד, ולעתים קרובות מציג צדדים מרובים של בעיה מורכבת.
עם זאת, ישנם חסרונות לתוצאת החיפוש "תשובה אחת", מכיוון שהיא מונעת מהמחפשים להסיק מסקנות משלהם מהמידע הזמין, תוך הצגת פרשנות של ChatGPT למה ש"נכון". בינה מלאכותית ואלגוריתמים רגישים ביותר להטיה, גם אם הם נתפסים כאובייקטיביים ורציונליים, ולכן קיימת סכנה ש-ChatGPT או פלטפורמה דומה יציגו נרטיב שגוי בתגובה לשאלה מורכבת, או רגישה, ללא כל מקום לשיקול דעת למחפש המידע להסיק את המסקנות שלו.
סינתזה בין מקורות מידע שונים
צ'אטבוט הוא תוכנת מחשב המדמה שיחה אנושית. זאת יכולה להיות שיחה בעל פה או שיחה כתובה, שיחה פשוטה של שאלה ותשובה או דרישה לניתוח מורכב יותר. ChatGPT הוא צ'אטבוט מבוסס בינה מלאכותית שפותח על ידי חברת הבינה המלאכותית OpenAI והושק בגרסתו האחרונה בנובמבר האחרון.
"זאת מערכת שסקרה את הרשת ויכולה לנהל דיאלוג של שאלות ותשובות בשפה פשוטה וטבעית", מסביר ד"ר יובל דרור , "ההבדל בינה לגוגל, למשל, הוא שאם תשאלי את גוגל שאלה, תקבלי הפניה לעשרה לינקים, ואילו בצ'אטבוט תקבלי תשובה אחת, מסודרת. אם תשאלי בגוגל מה הרצל היה אומר לביאליק לו היה פוגש אותו היום, תקבלי לינקים של זה ושל זה ותיאלצי לעשות את החיבור בעצמך ChatGPT . יכול לעשות עבורך את הסינתזה הנדרשת".
ChatGPT הוא מודל שפה, לא מנוע חיפוש. מנועי חיפוש כמו גוגל, בינג או יאהו נועדו לחפש ולאחזר מידע באינטרנט. הם משתמשים באלגוריתמים מורכבים כדי לדרג ולאינדקס דפי אינטרנט, תמונות וסוגים אחרים של תוכן. מצד שני, ChatGPT הוא מודל שמשתמש ברשת עצבית מלאכותית ( neural network) כדי להבין ולייצר טקסט. הוא מבין ויוצר טקסט הנראה , לכאורה, הגיוני על סמך הקלט שניתן ל-ChatGPT
מודל שפה במערכות AIהיא שיטה ברוחב פס נמוך להעברת מידע, ולעתים קרובות היא מעורפלת עקב צירופי מילים וכינויים. בני אדם אינם זקוקים לכלי מושלם לתקשורת מכיוון שאנו חולקים הבנה לא לשונית. מודלים של שפה (LLMs) כמו בפלטפורמת CHATGPT מאומנים לאסוף את הידע הקשור עבור כל משפט, תוך הסתכלות על המילים והמשפטים שמסביב כדי לחבר מה קורה, אך הבנה זו מוגבלת ואינה כוללת את הידע לשיחות מורכבות יותר. כתוצאה מכך, יש בהם חוסר עקביות ולעתים גם חוסר קוהרנטית של עולם הדעת .
טכנולוגיית מנוע החיפוש, שהומצאה במאגרי מידע מקוונים עוד טרם המצאת האינטרנט, חוסכת לנו הרבה שעות של נבירה בספריות, חיפוש באינדקסים וקריאה, ומביאה אותנו ישר אל המידע שאנחנו מחפשים. זה בא על חשבון ההעמקה, במידה מסוימת, אבל מייעל את התהליך ומאפשר לנו לרכז את רוב האנרגיה שלנו במה שחשוב באמת – עיבוד המידע, הסקת מסקנות וניסוחן. הטכנולוגיה החדשה של מנועי חיפוש מבוססי AI שגוגל מפתחת כיום לוקחת את זה צעד קדימה ולא רק מאתרת מידע אלא גם מעבדת אותו ומנגישה אותו בצורה קריאה וקלה להבנה,
ד"ר יפה אהרוני , מידענית מומחית (הדוקטורט שלה היה על מנועי חיפוש ואיחזור מידע) כתבה בבלוג שלה סקירה מעניינת בשם האם הצ'טבוט ChatGPT יחליף את גוגל ? ועוד…
יכולות
ניתן להשתמש ב-ChatGPT ליצירת תוכן, מכיוון שהוא יכול בקלות לכתוב תוכן על סמך הנחיה. לדוגמה, כלי בינה מלאכותית יכולים לכתוב שיר על סמך פקודה של משתמש. יתר על כן, ChatGPT יכול גם לעזור למשתמשים להוסיף נופך של אלגנטיות לסגנון הכתיבה שלהם ולהשיג את המטרות הספרותיות שלהם.
מגבלות:
ChatGPT רגיש לשינויים בניסוח הקלט. לדוגמה, בהינתן ניסוח אחד של שאלה, המודל יכול לטעון שאינו יודע את התשובה, אך בהינתן ניסוח מחדש קל, יכול לענות נכון.
לפעמים הוא כותב תשובות סבירות אך לא נכונות או שגויות עובדתית. באופן אידיאלי, המודל ישאל שאלות הבהרה כאשר המשתמש סיפק שאילתה לא ברורה. במקום זאת, הדגמים הנוכחיים בדרך כלל מנחשים למה התכוון המשתמש
לסקירה של ד"ר יפה אהרוני בבלוג שלה
האם chatgpt יכול לכתוב שאילתה בוליאנית טובה עבור חיפוש סקירת ספרות שיטתית?
המאמר מנסה לענות על השאלה הנ"ל.
סקירות ספרות שיטתיות הן סקירות מקיפות של ספרות עבור שאלת מחקר ממוקדת ביותר, והן מטופלות לעתים קרובות כצורת הראיות הגבוהה ביותר ברפואה מבוססת ראיות, וכאסטרטגיית המפתח לענות על שאלות מחקר בתחום הרפואי.
כדי ליצור סקירה שיטתית באיכות גבוה נדרשות שאילתות בוליאניות מורכבות כדי לאחזר מחקרים עבור נושא הסקירה. הדבר מצריך זמן רב עבור חוקרים ולעתים קרובות השאילתות המתקבלות רחוקות מלהיות יעילות.
במאמר זה נחקרה היעילות של ChatGPT ביצירת שאילתות בוליאניות לחיפוש סקירת ספרות שיטתית ע"י תכנון מערך נרחב של הנחיות לחקור משימות אלו על למעלה מ-100 נושאי סקירה שיטתית.
ממצאי המחקר הראו ששאילתות שנוצרו על ידי ChatGPT השיגו דיוק (precision ) גבוה יותר אך הורידו את רמת ההחזר (recall) וזאת בהשוואה לשאילתות שנוסחו באופן אוטומטי. בנוסף,ChatGPT יכול ליצור שאילתות בוליאניות ביעילות גבוהה עוד יותר כאשר ניתנת הנחיה מודרכת בפרומפטים.
כספרנית שעיקר עיסוקה הוא חיפושים לסקירות שיטתיות, חשוב לי לציין שחיפוש לסקירה שיטתית כל מטרתו הוא לא להפסיד מאמרים שעשויים להיות רלבנטיים. לכן, בניגוד לחיפוש רגיל, בונים חיפוש שנועד להגדיל recall על חשבון precision. אם ChatGPT מעלה דיוק ומוריד החזר, הוא עושה בדיוק את ההיפך ממה שצריך…
אתגר נוסף שניצב בפני ChatGPT ומודלים של שפות LLMs אחרים הוא עדכון בסיס הידע שלהם. למנועי החיפוש יש את הכלים והתוכנה לאנדקס ( ליצור אינדקס) כל הזמן דפים חדשים באינטרנט. עדכון מסד הנתונים של מנוע החיפוש הוא גם פעולה חסכונית מאוד.
אבל עבור מודלים של שפות מסוג LLM, הוספת ידע חדש מחייבת אימון מחדש של המודל. אולי לא כל עדכון ידרוש אימון מלא, אבל הוא בכל זאת יהיה הרבה יותר יקר מהוספה ושינוי של רשומות במסד נתונים של מנוע חיפוש. ויש לעשות זאת מספר פעמים ביום כדי להישאר מעודכן בחדשות האחרונות.
יש מכשול משמעותי נוסף, שלא מדברים עליו מספיק, ומרחיק מאוד את היישום הנרחב של צ'אט מבוסס בינה מלאכותי כמנוע חיפוש: עלויות הענן העצומות, שכרוכות במשימות בינה מלאכותית. סאם אלטמן, מנכ"ל OpenAI, צייץ כי כל שאילתא ב–ChatGPT עולה כמה סנטים לחברה. הסכום הפעוט הזה יכול להצטבר במהירות לסכומי עתק שיעיקו גם על כיסיה העמוקים של גוגל. העלות הזו גם יכולה אולי להסביר למה לאחרונה הצ'אט אינו זמין במשך שעות ארוכות, ולמה החברה משיקה גרסה של הצ'אט שלה בתשלום. עניין העלות עשוי להקשות גם על סטארט־אפים שמתחרים, ואכן אין הרבה חברות קטנות שכיום מפעילות כלים כאלה בסדרי גודל רחבים מאוד, ואילו OpenAI משתמשת בשירותי הענן של מיקרוסופט בעלות מסובסדת מאוד ( שגיא כהן , דה מרקר )
מודלים משולבים תמונה הופכת לקוד
במיקרוסופט קוראים לשימושי הבינה המלאכותית Copilot (טייס משנה). מור־בירן סיפרה כיצד הקימה פרופיל לינקדאין בשם Chase, הגדירה אותו כמתמחה במיקרוסופט, ודרך החשבון הזה סיפרה באילו דברים צ'ייס, שהוא בעצם הבינה המלאכותית, סייע לה באותו היום.
זה נראה כל כך אמיתי, עד שהבוסית שלה לינדה נזפה בה שהיא מגייסת בתקופה שהחברה לא מגייסת, ובוודאי כשאין לה תקן לכך. אחרי שמור־בירן סיפרה לה שמדובר בבינה המלאכותית – נרשמה הבנה עד כמה העוזר האישי החדש הוא יעיל ( מקור)
גוגל ובינה מלאכותית
המטרה הכללית של גוגל היא לסדר את כל המידע בעולם, ולהנגיש אותו לציבור. לדברי ענת הורביץ מגוגל ישראל, מהפכת ה־ AI היא "המהפכה השלישית הגדולה אחרי האינטרנט והמובייל", והיא אף ציטטה את סונדאר פיצ'אי, מנכ"ל גוגל, שאמר כי ההתפתחויות בבינה מלאכותית משמעותיות יותר מהמצאת האש.
כיום גוגל מחשיבה את עצמה קודם כל כחברת בינה מלאכותית, והרבה ממוצריה משלבים בתוכם AI כדי לשפר את הצעת הערך שלהם.
השיפור המשמעותי : חיפוש מתקדם
התפיסה של גוגל אומרת שבינה מלאכותית הופכת את מה שמורכב – לפשוט. בחברה מחלקים זאת לשלושה מישורים: בינה מלאכותית לפרטים, לקהילה ולעסקים. השימושים המיידיים הם לבני האדם.
גוגל תמונות לדוגמה, תשלב את עורך הקסם, ותשפר אותו יותר ויותר. אם צילמתם תמונה ויש בה אובייקט שמפריע, המערכת תזהה אותו בעצמה, ותציע להסיר אותו. השלב הבא יהיה לא רק להסיר אובייקטים, אלא להשלים כאלו שנחתכו. השימושים מגיעים בכל האפליקציות, כולל מפות, אבל אין ספק שהבשורה האמיתית תהיה בשירותי החיפוש של החברה – שהם עסקי הליבה שלה ( מקור)
אין ספק שהטמעת טכנולוגיה בחיי היומיום שלנו באה על חשבון פעולות אחרות ומכחידה במידה רבה כישורים שפותחו עד היום, כשהפעולות שהיא מחליפה נעשו בצורה ידנית. זה נכון לגבי רכבים ממונעים, מחשבון, מיקרוגל, טלפון נייד, מקלדת/מדפסת ועוד אינספור טכנולוגיות אחרות. כשהגשתי למורה שלי בכיתה י׳ עבודה מודפסת היא דרשה ממני להגיש אותה שנית בכתב יד בטענה ש״אנחנו לא רובוטים״. כיום, ברוב מוסדות החינוך הדפסת עבודות להגשה היא דרישת חובה. תהליך האימוץ של כל טכנולוגיה כרוך גם בהתגברות על החשש שהיא תחליף לחלוטין ותעלים התנהגות אנושית שיש בצדה ערכים חיוביים וכמובן שתיפול בידם של אנשים שיעשו בה שימוש זדוני ויעיל כדי לפגוע באחרים. החששות טבעיים, מובנים ובמידה מסוימת גם מוצדקים. האתגר שלנו כבני אדם הוא לא להימנע מהקידמה, אלא לעשות בה שימוש פרודוקטיבי, מוסכל ומוסרי _(שאול אולמרט, ינואר 2023 ).
הצ'אטבוט של אקספיינד הופך את המידע הארגוני לתשובות קלות להבנה
באקספיינד הפכו את הצ'אטבוט לשכבה שעוטפת את מנגנון החיפוש: באמצעות GenAI המערכת מתרגמת את השאלה של איש התמיכה לפרמטרים מדויקים שמניבים תוצאות איכותיות. לאחר קבלת התשובות היא מתרגמת אותן לטקסט קולח, ובמקום גיבוב מסמכים אפרוריים מתקבלת תשובה שמאפשרת לאנשי התמיכה או אפילו לצ'אטבוט התמיכה להסביר ללקוח את הפיתרון לבעיה.
"התובנה הבסיסית שלנו היתה שחיפושים באמצעות מילות מפתח לא באמת עובדים בעולמות האנטרפרייז, וצריך למצוא פתרון חכם יותר", אומר אביב זקן, ה-CTO ומייסד משותף של אקספיינד. "מה שבנינו זה רעיון איך לקחת קונטקסט שלם של עבודה – אם זה מייל, אם זה מסמך – ועל בסיס הקונטקסט הזה להריץ את כל החיפושים הרלוונטיים להחזיר את התוצאות בצורה אוטומטית".
אז מה באמת צופן העתיד ?
ככל הנראה, בוטים בסגנון ChatGPT יוצמדו למנועי חיפוש קיימים כדי להציע ממשק משתמש המשרת הן שאילתות מסורתיות של מנועי החיפוש והן הנחיות צ'אטבוט. זה המודל שאומץ על ידי You.com, מנוע חיפוש ייחודי ( בו אני משתמש לא מעט ) שהשיק צ'אטבוט משלו דמוי GPT בדצמבר. במקום להחליף את חוויית החיפוש המסורתית של You.com, התכונה החדשה "YouChat" מופיעה רק כקישור מתחת לסרגל החיפוש. החידוש כאן הוא הצבת שתי אפליקציות המופעלות בבינה מלאכותית על אותו עמוד. סביר להניח שניתן להניח שמיקרוסופט תעשה משהו דומה כאשר היא תשלב את ChatGPT ב-Bing בקרוב
ראו גם :
חשבתם ש -ChatGPT מועיל לחינוך ולהשבחתו , אז חשבתם ?
שלושה טיפים לשילוב בינה מלאכותית מסוג "טקסט לתמונה" בכיתה (ד"ר לימור ליבוביץ, 2023 .)