Print

“ხელოვნური ინტელექტი” - თანამოაზრე თუ კონკურენტი?

ავტორი: მარიამ ნაკაიძე | თარიღი: . კატეგორია: სტუდენტური სტატიები

რატომ ხელოვნური? და რატომ ინტელექტი? იქ, სადაც სიტყვა ინტელექტი დომინირებს, რთულია, მას გვერდით დავუყენოთ ისეთი ტერმინი, როგორიცაა ხელოვნური... თუმცა უნდა აღინიშნოს, რომ ჯერ კიდევ მე-19 საუკუნის ცნობილი გერმანელი ფილოსოფოსი და სოციოლოგი ჰელმუტ პლესნერი თვლიდა, რომ “ადამიანი საკუთარი ბუნებით ხელოვნურია” (“Der Mensch ist von Natur aus künstlich”). პლესნერის მესამე ანთროპოლოგიური კანონის თანახმად, ადამიანს აქვს/უჭირავს უტოპიური პოზიცია სამყაროში, რომლის მიხედვითაც ის მუდმივი ძიებისა და შექმნის პროცესითაა მოცული, თუმცა მას ამ შექმნილის განადგურებაც კი ძალუძს, ესე იგი რაღაც, რაც იქმნება, არ წარმოადგენს დასასრულს, ვინაიდან ის მომავალში უფრო მეტის შექმნას/გაკეთებას მოასწავებს. მუდმივად ტრანსფორმაციებით აღსავსე რეალობაში რთულია თვალის დახუჭვა ისეთ ცვალებად პროცესზე, როგორიცაა, მაგალითად, ხელოვნური ინტელექტის შემოჭრა/დამკვიდრების სურვილი სოციალურ სივრცეში. და მაინც ისმის შეკითხვა: შეუძლია კი ხელოვნურ ინტელექტს ადამიანური ინტელექტის „ჩანაცვლება"? ალბათ დამეთანხმებით, რომ არა ადამიანური ინტელექტის სიძლიერე, მსგავსი, თუმცა არა იდენტური, ხელოვნური ინტელექტის არსებობა შეუძლებელი და წარმოუდგენელიც კი იქნებოდა (2).

   

ხელოვნური ინტელექტი დაუსრულებელი ადამიანური შესაძლებლობების შედეგია.  ხელოვნური ინტელექტის შექმნა, რა თქმა უნდა, მნიშვნელოვანი წარმატება იყო, ზოგადად, კომპიუტერების პროგრამირებაში დასკვნების გამოსატანად. თუმცა ჭეშმარიტი მსჯელობა მოიცავს უფრო მეტს, ვიდრე უბრალოდ დასკვნების გამოტანის პროცესია: ის გულისხმობს იმგვარი დასკვნის გამოტანას, რომელიც შეესაბამება კონკრეტული ამოცანის ან სიტუაციის გადაწყვეტას/გადაჭრას. ეს არის ერთ-ერთი ყველაზე რთული პრობლემა, რომელსაც აწყდება AI. მსხვილ ენობრივ მოდელს, როგორიცაა ChatGPT, შეუძლია თავისუფლად უპასუხოს ადამიანის ენაზე კითხვებსა და განცხადებებს. მიუხედავად იმისა, რომ ასეთ მოდელებს რეალურად არ ესმით ენა, როგორც ადამიანებს, არამედ უბრალოდ ირჩევენ სიტყვებს, რომლებიც უფრო სავარაუდოა, ვიდრე სხვები, მათ მიაღწიეს იმ დონეს, რომ მათი ენა არ განსხვავდება ნორმალური ადამიანის ენისაგან. მაშ, რას მოიცავს ჭეშმარიტი გაგება, თუკი კომპიუტერი, რომელიც იყენებს ენას, როგორც მშობლიურ ენაზე მოსაუბრე ადამიანი, არ არის აღიარებული იმისთვის, რომ იყოს გასაგები? ამ რთულ კითხვაზე საყოველთაოდ შეთანხმებული პასუხი არ არსებობს. ხელოვნური ინტელექტის კვლევა მიჰყვება ორ განსხვავებულ და, გარკვეულწილად, კონკურენტულ მეთოდს, სიმბოლურ (ან „ზემოდან ქვევით“) და კავშირგაბმულობის (ან „ქვემოდან ზევით“) მიდგომას. “ზემოდან ქვევით” მიდგომა ცდილობს ინტელექტის გამეორებას ტვინის ბიოლოგიური სტრუქტურისაგან დამოუკიდებელი შემეცნების გაანალიზებით, სიმბოლოების დამუშავების თვალსაზრისით - სიმბოლური ეტიკეტი. მეორე მხრივ, “ქვემოდან ზევით” მიდგომა გულისხმობს ხელოვნური ნერვული ქსელების შექმნას ტვინის სტრუქტურის იმიტაციით - კავშირგაბმულობის იარლიყი. მარტივად რომ ვთქვათ, ნერვული აქტივობები არის ქვემოდან ზევით მიდგომის საფუძველი, ხოლო სიმბოლური აღწერილობები არის ზემოდან ქვევით მიდგომის საფუძველი. 1957 წელს სიმბოლური ხელოვნური ინტელექტის ორმა ენერგიულმა “დამცველმა” - ალენ ნიუელმა, მკვლევარმა RAND Corporation-ში (სანტა მონიკა, კალიფორნია) და ჰერბერტ საიმონმა, ფსიქოლოგმა და კომპიუტერულმა მეცნიერმა კარნეგი მელონის უნივერსიტეტში (პიტსბურგი, პენსილვანია) - შეაჯამეს “ზემოდან ქვევით” მიდგომა, რომელსაც მათ უწოდეს ფიზიკური სიმბოლო-სისტემის ჰიპოთეზა. ამ ჰიპოთეზაში ნათქვამია, რომ სიმბოლოების სტრუქტურების დამუშავება, პრინციპში, საკმარისია ციფრულ კომპიუტერში ხელოვნური ინტელექტის წარმოებისთვის და,  უფრო მეტიც, ადამიანის ინტელექტი იმავე ტიპის სიმბოლური მანიპულაციების შედეგია. ზემოთ ჩამოთვლილი მეთოდების გამოყენებით ხელოვნური ინტელექტი შეისწავლის სამი სამიზნე ცნებიდან ერთ-ერთს, ესენია:  ხელოვნური ზოგადი ინტელექტი (AGI), გამოყენებითი AI ან კოგნიტური სიმულაცია. AGI (ასევე ძლიერი AI) მიზნად ისახავს შექმნას მანქანები/მოწყობილობები, რომლებიც “ფიქრობენ”. AGI-ს საბოლოო ამბიცია არის ისეთი მანქანის წარმოება, რომლის საერთო ინტელექტუალური შესაძლებლობები არ განსხვავდება ადამიანის შესაძლებლობებისგან. გამოყენებითი ხელოვნური ინტელექტი, რომელიც ასევე ცნობილია, როგორც მოწინავე ინფორმაციის დამუშავება, მიზნად ისახავს კომერციულად სიცოცხლისუნარიანი „ჭკვიანი“ სისტემების წარმოებას, მაგალითად, „ექსპერტული“ სამედიცინო დიაგნოსტიკის სისტემებისა და საფონდო ვაჭრობის სისტემების წარმოებას. კოგნიტურ სიმულაციაში კომპიუტერები გამოიყენება თეორიების შესამოწმებლად, თუ როგორ მუშაობს ადამიანის გონება - მაგალითად, თეორიები იმის შესახებ, თუ როგორ ცნობენ ადამიანები სახეებს ან იხსენებენ წარსულს. კოგნიტური სიმულაცია უკვე ძლიერი ინსტრუმენტია როგორც ნეირომეცნიერებაში, ასევე კოგნიტურ ფსიქოლოგიაში. ყველაზე ადრეული არსებითი “სამუშაო” ხელოვნური ინტელექტის სფეროში მე-20 საუკუნის შუა ხანებში ბრიტანელმა ლოგიკოსმა და კომპიუტერული კვლევების პიონერმა ალან მატისონ ტიურინგმა გააკეთა. 1935 წელს ტიურინგმა აღწერა აბსტრაქტული გამოთვლითი მანქანა, რომელიც შედგებოდა უსაზღვრო მეხსიერებისა და სკანერისგან, რომელიც მოძრაობს მეხსიერებაში წინ და უკან, სიმბოლოდან სიმბოლომდე, კითხულობს  და წერს  სიმბოლოებს. სკანერის მოქმედებები ნაკარნახებია ინსტრუქციების პროგრამით, რომელიც ასევე ინახება მეხსიერებაში სიმბოლოების სახით. ეს არის ტიურინგის შენახული პროგრამის კონცეფცია და მასში ნაგულისხმებია მანქანის მუშაობის შესაძლებლობა და, რომ მან ამგვარად შეცვალოს ან გააუმჯობესოს საკუთარი პროგრამა. ტიურინგის კონცეფცია ახლა ცნობილია, როგორც უნივერსალური ტიურინგის მანქანა. ყველა თანამედროვე კომპიუტერი არსებითად უნივერსალური ტიურინგის აპარატია. ომის პერიოდში ის დაინტერესდა მანქანური დაზვერვის საკითხით.  ტიურინგის ერთ-ერთმა კოლეგამ, დონალდ მიჩიმ (რომელმაც მოგვიანებით დააარსა ედინბურგის უნივერსიტეტის მანქანური ინტელექტისა და აღქმის დეპარტამენტი), მოგვიანებით გაიხსენა, რომ ტიურინგი ხშირად განიხილავდა, თუ როგორ სწავლობდნენ კომპიუტერებს გამოცდილებაზე დაყრდნობით და ცდილობდნენ ახალი პრობლემების გადაჭრას. ტიურინგმა წაიკითხა თავისი ერთ-ერთი ადრეული საჯარო ლექცია კომპიუტერული ინტელექტის შესახებ და თქვა: „ჩვენ გვინდა მანქანა, რომელსაც შეუძლია ისწავლოს გამოცდილებიდან“ და რომ „შესაძლებლობა იმისა, რომ მანქანა საკუთარ ინსტრუქციებს შეცვლის, უზრუნველყოფს მექანიზმს ამისთვის.” 1948 წელს მან წარმოადგინა ხელოვნური ინტელექტის მრავალი ცენტრალური კონცეფცია მოხსენებაში, სახელწოდებით "ინტელექტუალური მანქანა". თუმცა ტიურინგმა არ გამოაქვეყნა ეს ნაშრომი და მისი ბევრი იდეა მოგვიანებით ხელახლა აითვისეს სხვებმა. მაგალითად, ტიურინგის ერთ-ერთი ორიგინალური იდეა იყო ხელოვნური ნეირონების ქსელის მომზადება კონკრეტული ამოცანების შესასრულებლად. 1950 წელს ტიურინგმა გვერდი აუარა ტრადიციულ დებატებს ინტელექტის განმარტებასთან დაკავშირებით, შემოიღო კომპიუტერული ინტელექტის პრაქტიკული ტესტი, რომელიც ახლა ცნობილია, როგორც ტიურინგის ტესტი. დამკითხავი ცდილობს, დანარჩენი ორი მონაწილისთვის კითხვების დასმით დაადგინოს, თუ რომელია კომპიუტერი. ყველა კომუნიკაცია ხდება კლავიატურისა და ეკრანის საშუალებით. გამომძიებელს შეუძლია დასვას ისეთი გამჭვირვალე და ვრცელი კითხვები, როგორიც მას მოსწონს და კომპიუტერს უფლება აქვს გააკეთოს ყველაფერი, რათა უბიძგოს მას არასწორი იდენტიფიკაციისკენ (მაგალითად, კომპიუტერმა შეიძლება უპასუხოს „არა“ კითხვაზე: „კომპიუტერი ხარ?“. თუ დაკითხვის საკმარისი ნაწილი ვერ ახერხებს კომპიუტერის ადამიანისგან გარჩევას, მაშინ (ტიურინგის ტესტის მომხრეების აზრით) კომპიუტერი განიხილება ინტელექტუალურ მოაზროვნე ერთეულად. 2022 წლის ბოლოს დიდი ენობრივი მოდელის ChatGPT-ის გამოჩენამ განაახლა საუბარი ტიურინგის ტესტის კომპონენტების დაკმაყოფილების ალბათობის შესახებ. Buzzfeed-ის მონაცემთა მეცნიერმა მაქს ვულფმა თქვა, რომ ChatGPT-მა ჩააბარა ტიურინგის ტესტი 2022 წლის დეკემბერში, მაგრამ ზოგიერთი ექსპერტი ამტკიცებს, რომ ChatGPT-ს არ გაუვლია ნამდვილი ტიურინგის ტესტი, რადგან ჩვეულებრივ გამოყენებაში ChatGPT ხშირად აცხადებს, რომ ეს არის ენის მოდელი. AI უქმნის ადამიანებს გარკვეულ რისკებს ეთიკური და სოციალურ-ეკონომიკური შედეგების თვალსაზრისით. რაც უფრო მეტი დავალება ხდება ავტომატური, განსაკუთრებით ისეთ ინდუსტრიებში, როგორებიცაა: მარკეტინგი და ჯანდაცვა, ბევრი თანამშრომელი მზად არის ან უფრო მეტად, იძულებულია დაკარგოს სამუშაო. მიუხედავად იმისა, რომ ხელოვნურმა ინტელექტმა შეიძლება შექმნას რამდენიმე ახალი სამუშაო ადგილი, ამან შეიძლება მოითხოვოს უფრო მეტი ტექნიკური უნარები, ვიდრე სამუშაოები, რომლებიც მან შეცვალა. უფრო მეტიც, AI-ს აქვს გარკვეული მიკერძოებები, რომელთა გადალახვაც რთულია სათანადო ტრენინგის გარეშე. მაგალითად, აშშ-ს პოლიციის განყოფილებებმა დაიწყეს პროგნოზირებადი პოლიციის ალგორითმების გამოყენება, რათა მიუთითონ, თუ სად არის ყველაზე სავარაუდო დანაშაული, თუმცა ასეთი სისტემები ნაწილობრივ დაფუძნებულია დაპატიმრების მაჩვენებლებზე, რომლებიც უკვე არაპროპორციულად მაღალია შავკანიანებით მჭიდროდ დასახლებულ უბნებში. ამან შეიძლება გამოიწვიოს პოლიციის გადაჭარბებული რაოდენობით არსებობა ასეთ ადგილებში, რაც კიდევ უფრო აისახება ამ ალგორითმებზე. ვინაიდან ადამიანები არსებითად მიკერძოებულნი არიან, ალგორითმები აუცილებლად ასახავს ადამიანის მიკერძოებას. კონფიდენციალურობა არის ხელოვნური ინტელექტის კიდევ ერთი ასპექტი, რომელიც ეხება ექსპერტებს. იმის გამო, რომ ხელოვნური ინტელექტი ხშირად გულისხმობს დიდი რაოდენობით მონაცემების შეგროვებასა და დამუშავებას, არსებობს რისკი, რომ ამ მონაცემებზე წვდომა არასასურველ ადამიანებს ან ორგანიზაციებსაც ექნებათ. გენერაციული AI-ით შესაძლებელია სურათების მანიპულირება და ყალბი პროფილების შექმნა. ხელოვნური ინტელექტის გამოყენება ასევე შესაძლებელია პოპულაციების გამოსაკვლევად და საჯარო სივრცეში მყოფი პირების თვალთვალისთვის. ექსპერტები სთხოვენ პოლიტიკის შემქმნელებს, შეიმუშაონ პრაქტიკა და პოლიტიკა, რომელიც მაქსიმალურად გაზრდის ხელოვნური ინტელექტის სარგებელს, ხოლო პოტენციურ რისკებს მინიმუმამდე შეამცირებს. შესაძლებელია თუ არა ხელოვნური ზოგადი ინტელექტის განხორციელება (AGI)? გამოყენებითი ხელოვნური ინტელექტისა და კოგნიტური სიმულაციის მიმდინარე წარმატება გარანტირებულია. თუმცა, ხელოვნური ზოგადი ინტელექტი (AGI), ან ძლიერი AI, ანუ ხელოვნური ინტელექტი, რომელიც მიზნად ისახავს ადამიანის ინტელექტუალური შესაძლებლობების დუბლირებას, რჩება საკამათო და მიუწვდომელი. წარმატების გაზვიადებულმა პრეტენზიებმა როგორც პროფესიულ ჟურნალებში, ასევე პოპულარულ პრესაში შელახა მისი რეპუტაცია. არის კი ეს ის სისტემა, რომელსაც შეუძლია ადამიანისთვის კონკურენციის გაწევა? ხელოვნური ინტელექტის მოკრძალებული მიღწევების გაზრდის სირთულე არ შეიძლება გადაჭარბებული იყოს. სიმბოლური ხელოვნური ინტელექტის ათწლეულების განმავლობაში ჩატარებულმა კვლევამ ვერ მოიპოვა რაიმე მყარი მტკიცებულება იმისა, რომ სიმბოლურ სისტემას შეუძლია გამოიჩინოს/ჩაანაცვლოს ადამიანის ზოგადი ინტელექტი. მნიშვნელოვანი კითხვაა: შეიძლება ოდესმე მართებული იყოს იმის თქმა, რომ კომპიუტერები “ფიქრობენ” და თუ ასეა, რა პირობებს უნდა აკმაყოფილებდეს კომპიუტერი, რომ ის ასე იყოს აღწერილი? ზოგიერთი ავტორი გვთავაზობს ტიურინგის ტესტს, როგორც ინტელექტის განსაზღვრის საშუალებას, თუმცა თავად ტიურინგმა აღნიშნა, რომ კომპიუტერი, რომელიც ინტელექტუალურად უნდა აღიწეროს, შეიძლება მაინც ჩაიჭრას გამოცდაზე, თუ მას არ შეუძლია წარმატებით მიბაძოს ადამიანს. მაგალითად, ChatGPT გამუდმებით მოიხმობს თავის სტატუსს, როგორც დიდი ენის მოდელისას და, შესაბამისად, ნაკლებად სავარაუდოა, რომ გაიაროს ტიურინგის ტესტი. თუ ინტელექტუალური ერთეული შეძლებს ტესტის ჩაბარებას, მაშინ ეს ტესტი ვერ მიიჩნევა ინტელექტის განსაზღვრის საშუალებად. მარვინ მინსკი ინტელექტს ადარებს „აფრიკის შეუსწავლელი რეგიონების“ კონცეფციას: ის ქრება მაშინვე, როგორც კი ჩვენ აღმოვაჩენთ მას (1.5).

ხელოვნური ინტელექტის გამოყენებითობა    დღეს რეალურ სამყაროში AI სისტემების გამოყენების უამრავი მაგალითი არსებობს.  ქვემოთ მოცემულია გამოყენების რამდენიმე ყველაზე გავრცელებული  შემთხვევა:    1) მეტყველების ამოცნობა: იგი ასევე ცნობილია, როგორც მეტყველების ავტომატური ამომცნობი (ASR), მეტყველების კომპიუტერული  ამოცნობა ან მეტყველება ტექსტში და ეს არის შესაძლებლობა, რომელიც იყენებს NLP-ს ადამიანის მეტყველების წერილობით ფორმატში გადასამუშავებლად. ბევრი მობილური მოწყობილობა აერთიანებს მეტყველების ამოცნობას თავის სისტემებში ხმოვანი ძიების ჩასატარებლად (მაგალითად, Siri) ან უზრუნველყოფს უფრო მეტ ხელმისაწვდომობას ტექსტური შეტყობინებების შესახებ ინგლისურ ან ბევრ ფართოდ გამოყენებულ ენაზე.    2) მომხმარებელთა მომსახურება: ონლაინ ვირტუალური აგენტები და “ჩათბოტები” ანაცვლებენ ადამიანურ აგენტებს მომხმარებლის მომსახურების დროს. ისინი უპასუხებენ ხშირად დასმულ კითხვებს (FAQ) ისეთი თემების შესახებ, როგორიცაა მაგალითად მიწოდება, ან აწვდიან პერსონალურ რჩევებს, სთავაზობენ პროდუქციის ჯვარედინ გაყიდვას ან მომხმარებლისთვის საინტერესო სხვა წინადადებებს, რაც ცვლის ჩვენს შეხედულებას მომხმარებელთა ჩართულობის შესახებ ვებსაიტებისა და სოციალური მედიის პლატფორმებზე. მაგალითები მოიცავს შეტყობინებების ბოტებს ვირტუალური აგენტებით ელექტრონული კომერციის საიტებზე,  შეტყობინებების აპლიკაციებს, როგორებიცაა Slack და Facebook Messenger და დავალებებს, რომლებიც ჩვეულებრივ სრულდება პასუხით ვირტუალური და ხმოვანი ასისტენტების მიერ.    3) კომპიუტერული ხედვა: ხელოვნური ინტელექტის ეს ტექნოლოგია კომპიუტერებსა და სისტემებს  მნიშვნელოვანი ინფორმაციის ციფრული სურათებიდან, ვიდეოებიდან და სხვა ვიზუალური საშუალებებიდან მიღების საშუალებას აძლევს შეტანილ მონაცემებზე დაყრდნობით, მას შეუძლია მისაღები ზომების შეთავაზება. რეკომენდაციების მიწოდების ეს უნარი განასხვავებს მას გამოსახულების ამომცნობი სისტემისგან.    4) ანომალიის გამოვლენა: ხელოვნური ინტელექტის მოდელებს შეუძლიათ დიდი რაოდენობით მონაცემების გადაჭრა და მონაცემთა ატიპური წერტილების აღმოჩენა მონაცემთა ნაკრებში. ამ ანომალიებმა შეიძლება აამაღლოს ცნობიერება გაუმართავი აღჭურვილობის, ადამიანური შეცდომისა ან უსაფრთხოების დარღვევის სფეროში  (3).  

გადაურჩება, თუ არა სინამდვილე და აზროვნება ხელოვნური ინტელექტის ევოლუციას? ხელოვნური ინტელექტის მკვლევარი გარი მარკუსი ამბობს, რომ არა, თუ არასანდო ტექნოლოგია კვლავაც ინტეგრირდება ჩვენს ცხოვრებაში ასეთი მაღალი, სახიფათო სიჩქარით. ის მხარს უჭერს გადაუდებელ გადაფასებას და იკვლევს დღევანდელი AI-ის წარუმატებლობებს და მოუწოდებს გლობალურ, არაკომერციულ ორგანიზაციას, დაარეგულიროს ტექნოლოგია დემოკრატიისა და ჩვენი კოლექტიური მომავლის ინტერესების გათვალისწინებით. Ted Talk-ის მოხსენებისას ის ხაზს უსვამს იმ ფაქტსაც, რომ საჭიროა შეიქმნას ისეთი გლობალური მმართველობა, რომელიც კვლევასთან ინტეგრირებული იქნება და  ხელს შეუწყობს იმ სირთულეებისა თუ რისკების გადალახვას, რომლებიც გასათვალისწინებელია AI-ის გამოყენებისას. ის აღნიშნავს ასევე, რომ ამ კონკრეტულ სისტემას (AI) არ შეუძლია ზუსტად განსაზღვროს კავშირი ფაქტებს შორის, რომლებიც გარკვეულ წინადადებებში იმალება. კარლ მარქსი ტერმინით „გაუცხოება" აღნიშნავს ფაქტს, რომ ადამიანი შეიძლება საკუთარ შრომით პროდუქტსაც უცხოდ, “არასაკუთრად”,  აღიქვამდეს… ხელოვნური ინტელექტიც ადამიანური პროდუქტია. დასკვნის სახით შეიძლება ითქვას, რომ ადამიანური ინტელექტის ჩანაცვლების მცდელობა საშიშროებას და ერთგვარი კონკურენტული გარემოს შექმნას გვპირდება/გულისხმობს. თანამოაზრე კი ხშირად შეიძლება გვექცეს მოწინააღმდეგედ. ვგულისხმობ იმას, რომ ის, რაც ერთი შეხედვით სასარგებლოა კაცობრიობისთვის, მეორე მხრივ, სწორედ ის შეიძლება შეიცავდეს გამანადგურებელი ძალის საფრთხეს. ჩვენ კი ისეთ გარემოში უნდა ვიცხოვროთ, რომელშიც საფრთხის მოლოდინის მინიმუმამდე დაყვანას შევეცდებით, მხოლოდ ამგვარი მიდგომით შევძლებთ ისეთ მომავალში არსებობას, რომელიც, თავის მხრივ, დაცული და ერთგვარი ბარიერებისაგან გათავისუფლებულიც კი იქნება. (4)          

 

გამოყენებული ლიტერატურა:    

1) Copeland, B.J. (2019). Artificial intelligence - Reasoning. In: Encyclopædia Britannica. [online] Available at: https://www.britannica.com/technology/artificial-intelligence/Reasoning.

2) Hausteiner-Wiehle, C. (n.d.). HELMUTH PLESSNER. [online] www.mcam-online.de. Available at: https://www.mcam-online.de/helmuth-plessner [Accessed 10 Apr. 2024].  

3) IBM (2023). What is artificial intelligence (AI)? [online] IBM. Available at: https://www.ibm.com/topics/artificial-intelligence.  

4) Marcus, G. (2023). Gary Marcus: The urgent risks of runaway AI — and what to do about them. [online] www.ted.com. Available at: https://www.ted.com/talks/gary_marcus_the_urgent_risks_of_runaway_ai_and_what_to_do_about_them?referrer=playlist-artificial_intelligence&autoplay=true.  

5) SAS (2023). Artificial Intelligence – What It Is and Why It Matters. [online] SAS. Available at: https://www.sas.com/en_us/insights/analytics/what-is-artificial-intelligence.html.