ברוך הבא, אורח
שם משתמש: סיסמא: זכור אותי

דיון: 'Machine learning' causing science crisis

'Machine learning' causing science crisis 6 months 2 weeks ago #8482

  • Edith Ohri
  • Edith Ohri's Avatar
  • Offline
  • Moderator
  • הודעות: 339
  • קרמה: 0
בכתבה של ה- BBC מתאריך 16-02-2019 אומר Pallab Ghosh, כתב חדשות המדע של בי.בי.סי. ש
Machine learning causing science crisis.

הכתבה סוקרת מחקר מענין של Dr Genevera Allen מאוניברסיטת רייס ביוסטון טקסס, שהוצג בכנס American Association for the Advancement of Science in Washington, ותמציתו:
Machine-learning techniques used by thousands of scientists to analyse data are producing results that are misleading and often completely wrong.
- www.bbc.com/news/science-environment-47267081

זו סנונית ראשונה של מדענים המתמרדים נגד התפיסה השגוייה שהשתרשה בלימוד מכונה.
השגיאה שמטעה ומכשילה את משתמשי ML, ככל הנראה, נעוצה בעובדה ש- ML המקובל (על בסיס סטטיסטי) מתאים רק לאימון, לא ללימוד מכונה. ML המקובל אינו מבחין בין המושגים learning (לימוד) ל- training (אימון). הבדל הגדול בין השניים הוא, שבלימוד מחפשים ידע חדש, כזה שטרם הוגדר, ואילו באימון רק מדיקים ידע קים.
אגב, נכון שניתן להרחיב את ה"אימון" ולהוסיף לו תפקידים של שילוב ביישומים, הדרכה, תרגול, תיעוד ועדכון, אך בכל מקרה זה יהיה שימוש בידע שכבר קים.

הכתבה אינה מציעה תחליף קונספטואלי ל-ML המקובל. זה נושא חדש. לאף אחד כמעט אין בו פתרונות. הפתרון שמועלה כאן (בפורום כריית מידע DWH ) שכולל עקרונות וחוקי ML הינו ראשון בתחום ... ראה גם פרויקט מדע הנתונים החדש ב- ResearchGate.

בברכה
אדית
הנהלת האתר ביטלה גישת כתיבה ציבורית.

'Machine learning' causing science crisis 6 months 1 week ago #8485

  • Edith Ohri
  • Edith Ohri's Avatar
  • Offline
  • Moderator
  • הודעות: 339
  • קרמה: 0
התפיסה המקובלת נשענת על הנחות שמתאימות לסביבה מבוקרת בלבד, ולמקרים שבהם יודעים מה התנהגות האוביקטים. במקרה הכללי של לימוד או במקרים שאינם מבוקרים (שהם רוב מקרי ביג דטה) התפיסה המקובלת שגוייה. הכשל של כריית ביג דטה הוא גם סיפור הכשל של לימוד-מכונה. הנושא הועלה לפני למעלה משלוש שנים, ב- 30-09-2016, כאן בפורום כריית-מידע של DWH בדיון "MACHINE LEARNING רודף אחרי הזנב" #8347

בברכה
אדית
הנהלת האתר ביטלה גישת כתיבה ציבורית.

The 'science crisis' is anticipated in DS Rule #8 6 months 1 week ago #8486

  • Edith Ohri
  • Edith Ohri's Avatar
  • Offline
  • Moderator
  • הודעות: 339
  • קרמה: 0
ב-25 אוק' 2017 פרסמתי כאן בפורום DWH, את חוק מס' 8 של מדע הנתונים על "טעויות מהסוג השלישי" בנוגע להגדרת השערות שגוייה.
כשנתיים אחרי כן הופיע מאמר ביקורתי בכותרת "science crisis" שמצביע על כשל גורף בשיטה המקובלת. נראה שהכשל צפוי, בשים לב לשגיאה הבסיסית שנדונה בחוק מס' 8. המאמר אמנם תולה את האשם ב- Machine Learning, אך בכל מקרה, עם או בלי ML, אין מה לקוות לתוצאות תקינות בניתוח שבו הנחות הבסיס לא מתקימות, כפי שקורה במודלים סטטיסטיים. לדוגמא, ההנחות על אי-תלות אירועים, או פיזור שווה של ערכי המשתנים – IID, או לצורך הענין - קיומם של שני סוגי שגיאה לוגית בלבד - אלפא וביטא, והתעלמות מהסוג השלישי – גמא, שנפוץ דווקא בביג דטה.
ראה - www.dwh.co.il/forum/4-DataMining/8101 "טעות-מהסוג-השלישי"

התעלמות המבחנים הסטטיסטיים מהשגיאה מהסוג השלישי – זו של הגדרת ההשערות, יוצרת פרצה גדולה ואבסורדים נוסח "הניתוח הצליח אך החולה מת", כאשר למנתחי הנתונים אין ברירה בהיעדר חלופה מוסמכת אלא להמשיך עם מודל כושל.
חשוב להזכיר בענין זה את פרויקט מדע הנתונים החדש שבא למלא את החסר ובמסגרתו מתאפשרות עוד פונקציות כגון: תמיכה שיטתית בהגדרת השערות, איתור גורמי מפתח, וגילוי סיבות שורש. ראה בפורום כאן וב Project log www.researchgate.net/project/Philosophy-...r-big-data-analytics

אדית
Home of GT data mining

בברכה
אדית
עריכה אחרונה: 6 months 1 week ago  ע''י Edith Ohri. סיבה: תוספת
הנהלת האתר ביטלה גישת כתיבה ציבורית.

The 'science crisis' - beware of Faked AI 2 months 3 weeks ago #8497

  • Edith Ohri
  • Edith Ohri's Avatar
  • Offline
  • Moderator
  • הודעות: 339
  • קרמה: 0
בתגובה לכתבה בפורבס שמתריאה על ריבוי מקרים של כאילו-AI -
Artificial Or Human Intelligence? Companies Faking AI By Ron Schmelzer

"Faked AI" זה מוצא קל למשווקים, ואין מה להתפלא שמנצלים את הפרצה. מדרכו של עולם, כשאין כללים או תקנים מחיבים בנושא, כל הממהר לפני שנברר מוכר יותר... וכשיש הרבה מכירות כאלה, הן מקבלות לגיטימציה ונכנסות גם לספרות המקצועית. השאלה היא, כמה faked facts המציאות יכולה לספוג לפני שתתהפך עלינו?!

לציין, ש-AI הוא כלי מסוכן מכמה בחינות שלא מרבים לדבר עליהן, והכוונה הפעם היא לא לשימוש בלתי מורשה במידע פרטי, אלא על דרדור המערכות שנשענות על AI.

להלן מספר סיכונים, ובסוף הכיוון המומלץ לפי מדע הנתונים החדש.
1. הסיכון העיקרי נובע משגיאות נעדרות בקרה. כידוע, מכונות מבצעות בעקביות וביעילות, את המשימות המתוכננות, כולל את טעויות המתכנן.
2. טעויות של AI גרועות יותר משל אנוש, כי למכונה אין אינטואיציה או יכולת לביקורת עצמית מעבר לפיקוח על כשלונות צפויים (מה שלא מספיק).
3. חסרה היום הפילוסופיה שתנחה את הבינה המלאכותית לייצר אוטומטית תיקונים (מעבר לעדכון פרמטרים).

לעניות דעתי, ב-AI הנוכחי יש יותר מדי באז ופחות מדי עצמות מדעיות, והמדע שמאחוריו בעצמו דורש רוויזיה פילוסופית.
למי שמעונין באנגלית -- www.researchgate.net/project/Philosophy-...r-big-data-analytics

בברכה
אדית
הנהלת האתר ביטלה גישת כתיבה ציבורית.
מנהלים: Edith Ohri
זמן יצירת העמוד: 0.143 שניות

הדף שלנו בפייסבוק

מעניין? שתפו דף זה באמצעות הטלפון הנייד

מאמרים

מגמות של ביג דאטה בעולם הביטוח
CA Technologies
SSIS - Buffer Size Optimization
קטגוריה ראשית
בדיקות BI ו-DWH לעומת הבדיקות בתחומים אחרים
קטגוריה ראשית
איסוף דרישות לפרויקטי BI
קטגוריה ראשית
כח המידע במיקוד
קטגוריה ראשית
0

Microsoft

Oracle

IBM

Informatica

Sap

SAS

Qlikview

Cloudera

Machine Learning