הצטרפו לקבוצות שלנו לקבלת עדכונים מרוכזים פעם בשבוע:

ווטסאפ:
http://wa.dwh.co.il
טלגרם:
http://telegram.dwh.co.il

'Machine learning' causing science crisis

More
4 years 4 months ago #8482 by Edith Ohri
בכתבה של ה- BBC מתאריך 16-02-2019 אומר Pallab Ghosh, כתב חדשות המדע של בי.בי.סי. ש
Machine learning causing science crisis .

הכתבה סוקרת מחקר מענין של Dr Genevera Allen מאוניברסיטת רייס ביוסטון טקסס, שהוצג בכנס American Association for the Advancement of Science in Washington, ותמציתו:
Machine-learning techniques used by thousands of scientists to analyse data are producing results that are misleading and often completely wrong.
- www.bbc.com/news/science-environment-47267081

זו סנונית ראשונה של מדענים המתמרדים נגד התפיסה השגוייה שהשתרשה בלימוד מכונה.
השגיאה שמטעה ומכשילה את משתמשי ML, ככל הנראה, נעוצה בעובדה ש- ML המקובל (על בסיס סטטיסטי) מתאים רק לאימון, לא ללימוד מכונה. ML המקובל אינו מבחין בין המושגים learning (לימוד) ל- training (אימון). הבדל הגדול בין השניים הוא, שבלימוד מחפשים ידע חדש, כזה שטרם הוגדר, ואילו באימון רק מדיקים ידע קים.
אגב, נכון שניתן להרחיב את ה"אימון" ולהוסיף לו תפקידים של שילוב ביישומים, הדרכה, תרגול, תיעוד ועדכון, אך בכל מקרה זה יהיה שימוש בידע שכבר קים.

הכתבה אינה מציעה תחליף קונספטואלי ל-ML המקובל. זה נושא חדש. לאף אחד כמעט אין בו פתרונות. הפתרון שמועלה כאן (בפורום כריית מידע DWH ) שכולל עקרונות וחוקי ML הינו ראשון בתחום ... ראה גם פרויקט מדע הנתונים החדש ב- ResearchGate .


בברכה
אדית

Please התחברות to join the conversation.

More
4 years 4 months ago #8485 by Edith Ohri
התפיסה המקובלת נשענת על הנחות שמתאימות לסביבה מבוקרת בלבד, ולמקרים שבהם יודעים מה התנהגות האוביקטים. במקרה הכללי של לימוד או במקרים שאינם מבוקרים (שהם רוב מקרי ביג דטה) התפיסה המקובלת שגוייה. הכשל של כריית ביג דטה הוא גם סיפור הכשל של לימוד-מכונה. הנושא הועלה לפני למעלה משלוש שנים, ב- 30-09-2016, כאן בפורום כריית-מידע של DWH בדיון "MACHINE LEARNING רודף אחרי הזנב" #8347


בברכה
אדית

Please התחברות to join the conversation.

More
4 years 4 months ago - 4 years 3 months ago #8486 by Edith Ohri
ב-25 אוק' 2017 פרסמתי כאן בפורום DWH, את חוק מס' 8 של מדע הנתונים על "טעויות מהסוג השלישי" בנוגע להגדרת השערות שגוייה.
כשנתיים אחרי כן הופיע מאמר ביקורתי בכותרת "science crisis" שמצביע על כשל גורף בשיטה המקובלת. נראה שהכשל צפוי, בשים לב לשגיאה הבסיסית שנדונה בחוק מס' 8. המאמר אמנם תולה את האשם ב- Machine Learning, אך בכל מקרה, עם או בלי ML, אין מה לקוות לתוצאות תקינות בניתוח שבו הנחות הבסיס לא מתקימות, כפי שקורה במודלים סטטיסטיים. לדוגמא, ההנחות על אי-תלות אירועים, או פיזור שווה של ערכי המשתנים – IID, או לצורך הענין - קיומם של שני סוגי שגיאה לוגית בלבד - אלפא וביטא, והתעלמות מהסוג השלישי – גמא, שנפוץ דווקא בביג דטה.
ראה - www.dwh.co.il/forum/4-DataMining/8101 "טעות-מהסוג-השלישי"

התעלמות המבחנים הסטטיסטיים מהשגיאה מהסוג השלישי – זו של הגדרת ההשערות, יוצרת פרצה גדולה ואבסורדים נוסח "הניתוח הצליח אך החולה מת", כאשר למנתחי הנתונים אין ברירה בהיעדר חלופה מוסמכת אלא להמשיך עם מודל כושל.
חשוב להזכיר בענין זה את פרויקט מדע הנתונים החדש שבא למלא את החסר ובמסגרתו מתאפשרות עוד פונקציות כגון: תמיכה שיטתית בהגדרת השערות, איתור גורמי מפתח, וגילוי סיבות שורש. ראה בפורום כאן וב Project log www.researchgate.net/project/Philosophy-...r-big-data-analytics

אדית
Home of GT data mining


בברכה
אדית
Last edit: 4 years 3 months ago by Edith Ohri. Reason: תוספת

Please התחברות to join the conversation.

More
4 years 2 weeks ago #8497 by Edith Ohri
בתגובה לכתבה בפורבס שמתריאה על ריבוי מקרים של כאילו-AI -
Artificial Or Human Intelligence? Companies Faking AI By Ron Schmelzer

"Faked AI" זה מוצא קל למשווקים, ואין מה להתפלא שמנצלים את הפרצה. מדרכו של עולם, כשאין כללים או תקנים מחיבים בנושא, כל הממהר לפני שנברר מוכר יותר... וכשיש הרבה מכירות כאלה, הן מקבלות לגיטימציה ונכנסות גם לספרות המקצועית. השאלה היא, כמה faked facts המציאות יכולה לספוג לפני שתתהפך עלינו?!

לציין, ש-AI הוא כלי מסוכן מכמה בחינות שלא מרבים לדבר עליהן, והכוונה הפעם היא לא לשימוש בלתי מורשה במידע פרטי, אלא על דרדור המערכות שנשענות על AI.

להלן מספר סיכונים, ובסוף הכיוון המומלץ לפי מדע הנתונים החדש.
1. הסיכון העיקרי נובע משגיאות נעדרות בקרה. כידוע, מכונות מבצעות בעקביות וביעילות, את המשימות המתוכננות, כולל את טעויות המתכנן.
2. טעויות של AI גרועות יותר משל אנוש, כי למכונה אין אינטואיציה או יכולת לביקורת עצמית מעבר לפיקוח על כשלונות צפויים (מה שלא מספיק).
3. חסרה היום הפילוסופיה שתנחה את הבינה המלאכותית לייצר אוטומטית תיקונים (מעבר לעדכון פרמטרים).

לעניות דעתי, ב-AI הנוכחי יש יותר מדי באז ופחות מדי עצמות מדעיות, והמדע שמאחוריו בעצמו דורש רוויזיה פילוסופית.
למי שמעונין באנגלית -- www.researchgate.net/project/Philosophy-...r-big-data-analytics


בברכה
אדית

Please התחברות to join the conversation.

Moderators: Edith Ohri
Time to create page: 0.517 seconds