تاريخ الذكاء الاصطناعي

بدأ تاريخ الذكاء الاصطناعي في العصور القديمة، من خلال الأساطير والقصص والشائعات عن الكائنات الاصطناعية الموهوبة بالذكاء أو الوعي من قبل الحرفيين المهرة. زُرعت بذور الذكاء الاصطناعي الحديث من قبل الفلاسفة الكلاسيكيين الذين حاولوا وصف عملية التفكير الإنساني بأنها عبارة عن التلاعب الميكانيكي للرموز. تُوج هذا العمل باختراع الكمبيوتر الرقمي القابل للبرمجة في الأربعينيات من القرن العشرين، وهي آلة تعتمد على جوهر التفكير المنطقي الرياضي. ألهم هذا الجهاز والأفكار التي تقف وراءه حفنة من العلماء للبدء بجدية في مناقشة إمكانية بناء الدماغ الإلكتروني.

Artificial intelligence
Major goals
Knowledge reasoning
Planning
Machine learning
Natural language processing
Computer vision
Robotics
Artificial general intelligence
Approaches
Symbolic
Deep learning
Bayesian networks
Evolutionary algorithms
Philosophy
Ethics
Existential risk
Turing test
Chinese room
Friendly AI
History
Timeline
Progress
AI winter
Technology
Applications
Projects
Programming languages
Glossary
Glossary

تأسس مجال أبحاث الذكاء الاصطناعى ضمن ورشة عمل في حرم كلية دارتموث خلال صيف عام 1956م. أولئك الذين حضروا سيصبحون قادة لأبحاث الذكاء الاصطناعى لعدة عقود. تنبأ العديد منهم بأن آلة بذكاء الإنسان لن تكون موجودة في أكثر من جيل، وأنهم حصلوا على ملايين الدولارات لجعل هذه الرؤية حقيقة.[1]

في النهاية، أصبح من الواضح أنهم قللوا بشكل كبير من صعوبة المشروع. في عام 1973م، استجابةً لانتقادات جيمس لايتهيل والضغط المستمر من الكونغرس، أوقفت الحكومتان الأمريكية والبريطانية تمويل البحوث غير الموجهة في مجال الذكاء الاصطناعي، وستُعرف السنوات الصعبة التي تلت ذلك باسم «شتاء الذكاء الاصطناعي». بعد سبع سنوات، ألهمت المبادرة اليابانية التي تبنتها الحكومة اليابانية، الحكومات والصناعة لتزويد مشاريع الذكاء الاصطناعي بمليارات الدولارات، ولكن بحلول أواخر الثمانينيات أُصيب المستثمرون بخيبة أمل بسبب عدم وجود الطاقة اللازمة للكمبيوتر (الآلات) وسحبوا التمويل مرةً أخرى.

ازدهر الاستثمار والاهتمام بالذكاء الاصطناعى في العقود الأولى من القرن الحادي والعشرين، عندما طُبقت عملية تعلم الآلة بنجاح على العديد من المشكلات في الأوساط الأكاديمية والصناعية بسبب الأساليب الجديدة، وطُبقت أجهزة الكمبيوتر القوية، وجُمعت مجموعات ضخمة من البيانات.

التعلم العميق والبيانات الضخمة والذكاء العام المصطنع: منذ عام 2011 حتى الآن

في العقود الأولى من القرن الحادي والعشرين، طُبق بنجاح الوصول إلى كميات كبيرة من البيانات (المعروفة باسم «البيانات الضخمة»)، وأجهزة الكمبيوتر الأرخص والأسرع، وتقنيات تعلم الآلة المتقدمة على العديد من المشاكل في جميع الأنظمة الاقتصادية. في الواقع، قدّر معهد ماكنزي العالمي في مقالته الشهيرة «البيانات الضخمة: الحدود التالية للابتكار والمنافسة والإنتاجية» أنه «بحلول عام 2009، كان لدى جميع القطاعات تقريبًا في الاقتصاد الأمريكي ما يعادل 200 تيرابايت على الأقل من معدل البيانات المخزنة».

بحلول عام 2016، وصل سوق المنتجات والأجهزة والبرامج المرتبطة بـالذكاء الاصطناعي إلى أكثر من 8 مليارات دولار، وذكرت صحيفة نيويورك تايمز أن الاهتمام بـالذكاء الاصطناعي وصل إلى حد «الجنون». بدأت تطبيقات البيانات الضخمة في الوصول إلى مجالات أخرى أيضًا، مثل نماذج التدريب في علم البيئة وللتطبيقات المختلفة في الاقتصاد. أدى التقدم في التعلم العميق (وخاصةً الشبكات العصبونية الالتفافية العميقة والشبكات العصبونية المتكررة) إلى التقدم والبحث في معالجة الصور والفيديو، وتحليل النص، وحتى التعرف على الكلام.[2][3][4][5]

التعلم العميق

التعلم العميق هو فرع من التعلم الآلي يصور نماذج تجريدية عالية المستوى في البيانات باستخدام رسم بياني عميق يحتوي على العديد من مستويات المعالجة. وفقًا لمبرهنة التقريب العام، فإن العمق ليس ضروريًا لتكون الشبكة العصبية قادرة على التقريب بين الوظائف العشوائية المستمرة. ومع ذلك، هناك العديد من المشكلات الشائعة للشبكات السطحية (مثل المطابقة) التي تساعد الشبكات العميقة على تجنبها. على هذا النحو، فإن الشبكات العصبونية العميقة قادرة على توليد نماذج أكثر تعقيدًا بشكل واقعي مقارنةً بنظيراتها السطحية.[6]

ومع ذلك، فإن التعلم العميق لديه مشاكل خاصة به. هناك مشكلة شائعة في الشبكات العصبونية المتكررة هي مشكلة تلاشي معدل الانحدار، حيث يتقلص معدل الانحدار بين الطبقات تدريجيًا ويختفي حرفيًا حيث يُقرّب إلى الصفر. هناك العديد من الطرق التي طُورت للتعامل مع هذه المشكلة، مثل وحدات الذاكرة قصيرة المدى المطولة.

يمكن أن تنافس بنى الشبكات العصبونية العميقة المتطورة في بعض الأحيان دقة الإنسان في مجالات مثل تصور الكمبيوتر، وتحديدًا في أمور مثل قاعدة بيانات إم إن آي إس تي والتعرف على إشارات المرور.[7]

يمكن لمحركات معالجة اللغة التي تعمل بمحركات البحث الذكية، التغلب بسهولة على البشر في الإجابة على الأسئلة السخيفة العامة (مثل نظام حاسوب آي بي إم واتسون)، وأحدثت التطورات الحديثة في التعليم العميق نتائج مذهلة في التنافس مع البشر، في أشياء مثل لعبة غو آند دوم (وهي لعبة أن يفوز أول شخص يطلق النار، التي أثارت بعض الجدل).[8][9][10][11]

البيانات الضخمة

تشير البيانات الضخمة إلى مجموعة من البيانات التي لا يمكن التقاطها وإدارتها ومعالجتها بواسطة أدوات البرامج التقليدية في إطار زمني معين. إنها كمية هائلة من قدرات صنع القرار والبصيرة وتحسين العمليات التي تتطلب نماذج معالجة جديدة. في عصر البيانات الضخمة بيغ داتا إيرا الذي كتبه فيكتور ماير شونبيرغ وكينيث كوك، تعني البيانات الضخمة أنه بدلًا من التحليل العشوائي (باستخدام عينة مسح)، تُستخدم جميع البيانات للتحليل. خصائص البيانات الضخمة (5 فولت) (التي اقترحتها شركة آي بي إم): الحجم والسرعة والتنوع والقيمة والدقة. إن الأهمية الاستراتيجية لتكنولوجيا البيانات الضخمة لا تتمثل في إتقان معلومات البيانات الضخمة، ولكن تخصصها في هذه البيانات المهمة. بمعنى آخر، إذا شُبهت البيانات الضخمة بصناعة ما، فإن مفتاح تحقيق الربحية في هذه الصناعة هو زيادة «قدرة معالجة» البيانات وتحقيق «القيمة الإضافية» للبيانات من خلال «المعالجة».[12][13][14]

الذكاء العام الاصطناعي

الذكاء الاصطناعي هو فرع من فروع علوم الكمبيوتر يحاول فهم جوهر الذكاء وإنتاج آلة ذكية جديدة تستجيب بطريقة مشابهة للذكاء البشري. تشمل الأبحاث في هذا المجال الروبوتات والتعرف على الكلام والتعرف على الصور ومعالجة اللغة الطبيعية وأنظمة الخبراء. منذ ولادة الذكاء الاصطناعي، أصبحت النظرية والتقنية أكثر نضجًا، وتوسعت مجالات التطبيق. من المُتوقع أن تكون المنتجات التكنولوجية التي جلبها الذكاء الاصطناعي في المستقبل عبارة عن «حاوية» للمعرفة الإنسانية. ويمكن للذكاء الاصطناعي أن يحاكي عملية المعلومات المتعلقة بالوعي والتفكير البشري. الذكاء الاصطناعي ليس ذكاءً بشريًا، لكنه يمكن أن يكون مشابه للتفكير البشري، ويمكن أن يتجاوز الذكاء البشري. يُشار أيضًا إلى الذكاء العام الاصطناعي باسم «الذكاء الاصطناعي القوي»، أو «الذكاء الاصطناعي الكامل» أو كقدرة الآلة على تنفيذ «الأداء الذكي العام». تحتفظ المصادر الأكاديمية على «الذكاء الاصطناعى القوي» للإشارة إلى الآلات القادرة على الشعور بالوعي.[15][16]

انظر أيضاً

المراجع

  1. Kaplan, Andreas؛ Haenlein, Michael (2019)، "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence"، Business Horizons، 62: 15–25، doi:10.1016/j.bushor.2018.08.004.
  2. "How Big Data is Changing Economies | Becker Friedman Institute"، bfi.uchicago.edu (باللغة الإنجليزية)، مؤرشف من الأصل في 18 يونيو 2018، اطلع عليه بتاريخ 09 يونيو 2017.
  3. Steve Lohr (17 أكتوبر 2016)، "IBM Is Counting on Its Bet on Watson, and Paying Big Money for It"، New York Times، مؤرشف من الأصل في 29 فبراير 2020
  4. Hampton, Stephanie E؛ Strasser, Carly A؛ Tewksbury, Joshua J؛ Gram, Wendy K؛ Budden, Amber E؛ Batcheller, Archer L؛ Duke, Clifford S؛ Porter, John H (01 أبريل 2013)، "Big data and the future of ecology"، Frontiers in Ecology and the Environment (باللغة الإنجليزية)، 11 (3): 156–162، doi:10.1890/120103، ISSN 1540-9309، مؤرشف من الأصل في 3 أبريل 2019.
  5. LeCun, Yann؛ Bengio, Yoshua؛ Hinton, Geoffrey (2015)، "Deep learning"، Nature، 521 (7553): 436–444، Bibcode:2015Natur.521..436L، doi:10.1038/nature14539، PMID 26017442.
  6. Baral, Chitta؛ Fuentes, Olac؛ Kreinovich, Vladik (يونيو 2015)، "Why Deep Neural Networks: A Possible Theoretical Explanation"، Departmental Technical Reports (Cs)، مؤرشف من الأصل في 17 أبريل 2018، اطلع عليه بتاريخ 09 يونيو 2017.
  7. Ciregan, D.؛ Meier, U.؛ Schmidhuber, J. (يونيو 2012)، Multi-column deep neural networks for image classification، 2012 IEEE Conference on Computer Vision and Pattern Recognition، ص. 3642–3649، arXiv:1202.2745، Bibcode:2012arXiv1202.2745C، CiteSeerX 10.1.1.300.3283، doi:10.1109/cvpr.2012.6248110، ISBN 978-1-4673-1228-8.
  8. University, Carnegie Mellon، "Computer Out-Plays Humans in "Doom"-CMU News - Carnegie Mellon University"، www.cmu.edu، مؤرشف من الأصل في 16 سبتمبر 2017، اطلع عليه بتاريخ 10 يونيو 2017.
  9. "Innovations of AlphaGo | DeepMind"، DeepMind، مؤرشف من الأصل في 27 يوليو 2019، اطلع عليه بتاريخ 10 يونيو 2017.
  10. "AlphaGo: Mastering the ancient game of Go with Machine Learning"، Research Blog (باللغة الإنجليزية)، مؤرشف من الأصل في 4 مايو 2018، اطلع عليه بتاريخ 10 يونيو 2017.
  11. Markoff, John (16 فبراير 2011)، "On 'Jeopardy!' Watson Win Is All but Trivial"، The New York Times (باللغة الإنجليزية)، ISSN 0362-4331، مؤرشف من الأصل في 8 يناير 2020، اطلع عليه بتاريخ 10 يونيو 2017.
  12. Laney, Doug (2001)، "3D data management: Controlling data volume, velocity and variety"، META Group Research Note، 6 (70).
  13. Marr, Bernard (06 مارس 2014)، "Big Data: The 5 Vs Everyone Must Know"، مؤرشف من الأصل في 29 فبراير 2020.
  14. Goes, Paulo B. (2014)، "Design science research in top information systems journals"، MIS Quarterly: Management Information Systems، 38 (1).
  15. The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013 نسخة محفوظة 23 أغسطس 2019 على موقع واي باك مشين.
  16. (Kurzweil 2005, p. 260) or see Advanced Human Intelligence where he defines strong AI as "machine intelligence with the full range of human intelligence." نسخة محفوظة 16 أكتوبر 2019 على موقع واي باك مشين.

المصادر

  • بوابة تاريخ العلوم
  • بوابة تقنية المعلومات
  • بوابة ذكاء اصطناعي
  • بوابة روبوتيات
  • بوابة علم الحاسوب
  • بوابة علم النفس
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.