முந்தைய பதிவில், NPC (Non-Player Character) உதாரணம் கொண்டு AI என்றால் என்ன?, அதன் செயல்பாடு, மற்றும் அதன் பயன்பாடுகள் பற்றிய அடிப்படை விளக்கங்களை பகிர்ந்திருந்தோம்.
இப்பதிவில் AI எப்போது தோன்றியது? அதன் வளர்ச்சி எந்த முக்கியமான காலக்கட்டங்களை கடந்து வந்தது? சில நேரங்களில் அதன் முன்னேற்றம் ஏன் தடைப்பட்டது, மற்றும் AI இன்று எந்த நிலைக்கு வளர்ந்துள்ளது என்பதை ஆராயப்போகிறோம்.
மனிதர்கள் பல நூற்றாண்டுகளாக எவ்வாறு நுண்ணறிவை வடிவமைக்கலாம் என்பதை ஆய்வு செய்து வந்தாலும், AI-யின் வளர்ச்சி கடந்த 70 ஆண்டுகளில் தான் ஒரு சீரிய பயணத்தை மேற்கொண்டது. இந்த வளர்ச்சி தொடர்ந்தும் மாற்றங்களை சந்தித்தது, பல நேரங்களில் முன்னேற்றமும், பின்னடைவும் காணப்பட்டது. பலருக்கும் AI Winter எனப்படும் பின்னடைவு காலங்கள் தெரிந்திருக்கலாம், ஆனால் AI-யின் முழுமையான வரலாற்று பயணம், அதன் உருவாக்கம், முன்னோடிகள் மற்றும் ஏன் பல முயற்சிகள் தோல்வியடைந்தன என்பதற்கான புரிதல் தேவைப்படுகிறது. அதைப் புரிந்துகொள்வதற்கு, AI எப்போது ஆரம்பித்தது? அதன் முன்னோடிகள் யார்? முன்னேற்றங்களை எந்த நுண்ணறிவு கோட்பாடுகள் வழிநடத்தின? மற்றும் எந்த இடங்களில் சிக்கல்கள் ஏற்பட்டன? என்பவற்றை ஆராய்வது அவசியம்.
1956 – Dartmouth Conference: AI-யின் பிறப்பு
AI-யின் தோற்றத்தைக் புரிந்துகொள்வதற்கு 1956 ஆம் ஆண்டு நடைபெற்ற Dartmouth Conference முக்கியமானதாக பார்க்கப்படுகிறது. இது AI-யின் பிறப்பிடம் என்று கருதப்படுகிறது. ஆனால், உண்மையான வளர்ச்சி 1960களில் தான் வேகமடைந்தது.
இம்மாநாட்டை John McCarthy, Marvin Minsky, Nathaniel Rochester, Claude Shannon போன்ற முக்கிய AI விஞ்ஞானிகள் ஏற்பாடு செய்தனர். இதில் அவர்கள் முன்வைத்த ஒரு முக்கியமான கருத்து:
“மனிதர்களைப் போல சிந்திக்கக் கூடிய கணினிகளை உருவாக்க முடியுமா?”
இந்த கேள்வி புதியதல்ல, ஏனெனில் 1940களில் Alan Turing என்பவர் Turing Test என்ற கோட்பாட்டை முன்வைத்திருந்தார். இது, ஒரு கணினி மனிதர்களைப் போல செயல்படுகிறதா என்று பரிசோதிக்க வேண்டிய முறை.
Dartmouth மாநாட்டில் “Artificial Intelligence” என்ற சொல் முதன்முறையாக உபயோகிக்கப்பட்டது. இது மனிதர்கள் மேற்கொள்கின்ற சிந்தனை, தீர்வுகள், மற்றும் முடிவெடுக்கும் செயல்முறைகளை கணினிகள் செய்யக்கூடியதாக உருவாக்கும் புதிய விஞ்ஞானத் துறையாக அறிவிக்கப்பட்டது.
அந்த மாநாட்டின் முக்கிய நோக்கங்கள்:
-
கணினிகள் தன்னிச்சையாக முடிவெடுக்க வேண்டும்.
-
கணினிகள் சிக்கல்களை புரிந்து கொண்டு, அதற்கான தீர்வுகளை கண்டறிந்து, திறமையாக தீர்க்க வேண்டும்.
-
கணினிகள் மனித மொழியை புரிந்து கொள்ள வேண்டும்.
-
கணினிகள் தனிநபர்களைப் போல அறிவாற்றலை வெளிப்படுத்த வேண்டும்.
இந்த மாநாட்டின் முடிவில், AI-ஆய்வு புதிய பரிமாணத்தை அடைந்தது. விஞ்ஞானிகள் இதை சாத்தியமான ஒன்றாக நம்பினார்கள். ஆனால், மேலும் பல முன்னேற்றங்கள் தேவையென்பதும் தெளிவாக இருந்தது.
1960களில் AI-யின் தொடக்கக்கட்டம் – Rule-Based Systems
Dartmouth மாநாட்டின் பின்னணியில், 1960களில் விஞ்ஞானிகள் AI ஆராய்ச்சியை மேலும் விரிவுபடுத்தினர். AI-யின் ஆரம்பக் கட்டத்தில் உருவாக்கப்பட்ட முறை Rule-Based Systems ஆகும். Rule-Based Systems என்பது மனித நிபுணத்துவத்தை கணினியில் கோட்பாட்டாக எழுத முயற்சி செய்த AI முறை. இதன் அடிப்படையில்:
-
மனிதர்கள் எப்படி முடிவெடுக்கிறார்கள்?
-
அந்த முடிவுகளுக்கான தர்க்கரீதியான காரணங்கள் என்ன?
-
கணினி முறையாக முடிவெடுக்க எந்த விதிகளை (Rules) பயன்படுத்தலாம்?
என்பவற்றை கணினியில் நிரலாக மாற்ற முயற்சி செய்யப்பட்டது.
முக்கிய முன்னேற்றங்கள்:
General Problem Solver (GPS) – Allen Newell, John Clifford Shaw & Herbert A. Simon
GPS என்பது Rule-Based Problem Solving System ஆகும். இது பிரச்சனைகளை தீர்ப்பதற்கான பொதுவான செயல்முறையை (General Approach) முன்மொழிகிறது.
இந்த முறை மனிதர்கள் சிக்கல்களை எவ்வாறு தீர்க்கிறார்கள்? என்ற கோட்பாட்டை அடிப்படையாகக் கொண்டு உருவாக்கப்பட்டது. இதன் முக்கிய செயல்முறை, “ஒரு சிக்கலை தர்க்க ரீதியாக பகுக்க வேண்டும், தீர்வுக்கான வழிகளை கண்டுபிடிக்க வேண்டும், பின்னர் சிறந்த தீர்வை தேர்வு செய்ய வேண்டும்” என்பதாகும்.
ஆனால், இந்த முறை முழுமையாக வெற்றியடையவில்லை. இயற்கையின் சிக்கலான தன்மை காரணமாக, எல்லா பிரச்சனைகளுக்கும் ஒரு பொதுவான தீர்வு இருக்க முடியாது என்பதே பின்னர் உணரப்பட்டது.
ELIZA – Joseph Weizenbaum (1966)
ELIZA என்பது மனிதர்களுடன் உரையாடக்கூடிய ஒரு தானியங்கி உரையாடல் (Chatbot) ஆகும். இது Natural Language Processing (NLP) முறைகளைப் பயன்படுத்தி மனிதர்களைப் போல பதிலளிக்க முயற்சி செய்தது. ELIZA-வின் தனிச்சிறப்பு என்னவெனில், மனிதர்களுடன் உரையாடல்களை நகலாக உருவாக்கி, உண்மையான பதில்களைக் கொடுப்பது போல தோற்றமளித்தது.
ஆனால், இதில் ஒரு முக்கியமான குறைபாடு இருந்தது. ELIZA உண்மையாக ஒரு உரையாடலை புரிந்து கொள்ளவில்லை; அது வெறும் predefined keywords மற்றும் pattern-matching முறைகளை மட்டுமே பயன்படுத்தியது. இதனால், உரையாடல் தோற்றத்திற்கேற்ப இயல்பாக நடந்தாலும், உண்மையில் AI எந்த அர்த்தத்தையும் புரிந்து கொள்ளவில்லை. மேலும், மனித உணர்வுகளையும், சூழ்நிலையையும் அடையாளம் கண்டு பதிலளிக்க முடியாமல் இருந்தது.AI உண்மையாக ஒரு machine intelligence ஆக வேண்டுமெனில், இது சூழ்நிலையைப் புரிந்து கொள்ளும் திறனை வளர்த்துக்கொள்ள வேண்டும்.
1970களில் AI-யின் முக்கியமான சிக்கலாக Combinatorial Explosion கண்டறியப்பட்டது. AI-யில் ஒரு சிக்கலுக்கு தீர்வு காணும்போது, அதன் அனைத்து சாத்தியமான நிலைகளும் கணக்கிடப்படும். ஆனால், ஒரு பிரச்சனை வளர்ச்சியடைந்து பெரியதாக செல்லும் போது, அதன் முடிவுகளின் எண்ணிக்கை கணிக்க முடியாத அளவுக்கு அதிகரிக்கிறது. இதுவே Combinatorial Explosion எனப்படும் பிரச்சனை. எடுத்துக்காட்டாக, ஒரு 10×10 pixel கொண்ட படத்தை எடுத்துக்கொண்டால், ஒவ்வொரு pixel-க்கும் 0 முதல் 256 வரை values இருக்கலாம். இதனால், அந்த படத்திற்கான அனைத்து சாத்தியமான combination possibilities = 256^{100} ஆகும், இது பிரபஞ்சத்தில் உள்ள அணுக்களின் எண்ணிக்கையைவிட அதிகம்!
இதன் விளைவாக, AI கணிப்பொறிகள் (Computers) மிகப்பெரிய computational resources தேவையாகிறது. அதனால், Rule-Based AI முறைகள் மிகப் பெரிய மற்றும் சிக்கலான பிரச்சனைகளை தீர்க்க முடியாது என்பதை விஞ்ஞானிகள் உணர்ந்தனர்.
1970களின் இறுதியில், AI-யின் வளர்ச்சி ஒரு பெரிய சிக்கலின் முன் நின்று கொண்டிருந்தது. Rule-Based Systems மற்றும் Expert Systems பல முன்னேற்றங்களை ஏற்படுத்தியிருந்தாலும், அவை சிறிய அளவிலேயே பயனுள்ளதாக இருந்தன. Combinatorial Explosion பிரச்சனையால், மிகப் பெரிய பிரச்சனைகளை தீர்க்க முடியாத நிலை ஏற்பட்டது. இதனால், Rule-Based AI-க்கு மாற்றாக புதிய வழிகள் தேவைப்படும் என்று ஆராய்ச்சியாளர்கள் எண்ணத் தொடங்கினர். இதன் விளைவாக, Machine Learning மற்றும் Deep Learning போன்ற புதிய அணுகுமுறைகள் உருவாக ஆரம்பித்தன, மேலும் AI ஒரு புதிய பரிணாமத்துக்குள் நுழைந்தது.
இந்நிலையில், Geoff Hinton ஒரு புரட்சிகரமான சிந்தனையை முன்வைத்தார்: Backpropagation of Errors. இதற்கு முன்பு, AI விஞ்ஞானிகள் மனித மூளையின் செயல்பாட்டை ஒத்திருக்கும் கணினி அமைப்புகளை உருவாக்க முயன்றனர். ஆனால், Hinton முற்றிலும் மாறுபட்ட அணுகுமுறையை தேர்ந்தெடுத்தார் – கணினி சரியான முடிவுகளை உடனடியாக கணிக்க வேண்டிய அவசியமில்லை; மாறாக, தவறுகளை செய்ய அனுமதித்து, அவற்றிலிருந்து திருத்தம் செய்துகொண்டு படிப்படியாக கற்றுக்கொள்ள வேண்டும்.
நாம் குழந்தையாக இருக்கும்போது, கல்லாங்காலி (Hopscotch) விளையாடும் போது, முதல் முயற்சியிலேயே முழுமையாக சரியாக விளையாட முடியாது. கல்லை எங்கே எறிய வேண்டும், எந்த காலால் எங்கு நிற்க வேண்டும் என்பதில் முதல் சில முயற்சிகளில் தவறுகள் செய்வோம். ஆனால், அந்த தவறுகளை நாம் நம் அனுபவத்தின் மூலம் திருத்திக் கொண்டு மெல்ல மெல்ல சரியான முறையில் விளையாட கற்றுக்கொள்கிறோம். ஒவ்வொரு தவறும் ஒரு புது பாடமாக அமைந்து, அடுத்த முறையில் அதை திருத்தி மேலும் திறமையாக விளையாட உதவுகிறது.
அதேபோல், Backpropagation முறையிலும், ஒரு Neural Network முதலில் ஒரு கணிப்பு (Prediction) செய்யும். அது தவறாக இருந்தால், அந்த தவறை அடையாளம் கண்டு திருத்தும் வழியை தானாகவே கற்றுக்கொள்ளும். மறுபடியும் கணிப்பு செய்து, மெல்ல மெல்ல சரியான முடிவை அடைய இது iteration முறையில் மேம்படுத்தப்படும்.
எப்படி ஒரு குழந்தை நொண்டி (Hopscotch) விளையாடும்போது தவறுகளைச் செய்யும்போது அவற்றில் இருந்து பயில்கிறதோ, அதேபோல் Neural Networks-க்கும் தவறுகள் ஒரு முக்கியமான பங்காக உள்ளன. குழந்தை தொடக்கத்தில் எந்த இடத்தில் குதிக்க வேண்டும், எங்கே கல்லை எறிய வேண்டும் என்று தெரியாமல் தவறாகச் செய்யலாம். ஆனால், ஒவ்வொரு தவறும் அதை திருத்திக் கொள்ளும் வாய்ப்பாக மாறி, மெல்ல மெல்ல சரியான முறையில் விளையாட கற்றுக்கொள்ள உதவுகிறது.
அதேபோல், AI முறைகளும் ஒரு பிரச்சனைக்கு முதல் முயற்சியில் சரியான தீர்வை வழங்காது. ஆனால், தவறுகளை அடையாளம் கண்டு திருத்திக்கொண்டு, முன் செய்த பிழைகளை அடிப்படையாகக் கொண்டு, சிறிது சிறிதாக முன்னேறி, முற்றிலும் கற்றுக்கொள்ளும் திறன் பெற்றுவிடும். இதுவே Backpropagation முறையின் முக்கியத்துவம் – முந்தைய தவறுகளை திருத்தி, மெல்ல மெல்ல சரியான முடிவை அடைய செய்யும் ஒரு கற்றல் செயல்முறை.
இந்த புதிய அணுகுமுறை AI-யின் வளர்ச்சியில் ஒரு முக்கிய திருப்புமுனையாக அமைந்தது. David E. Rumelhart, Geoffrey Hinton, மற்றும் Ronald J Williams ஆகியோரால் 1986-ஆம் ஆண்டு மேலும் மேம்படுத்தப்பட்ட Backpropagation Algorithm இன்று Neural Networks-ஐ பயிற்றுவிப்பதற்கான அடிப்படை நுட்பமாக பார்க்கப்படுகிறது. இதுவே Deep Learning-க்கு ஆதாரமாக அமைந்தது. இதன் விளைவாக, Neural Networks-ஐ பயிற்றுவிக்க மிகவும் எளிதாகியது, மேலும் பெரிய அளவிலான Big Data-வை கையாள AI முன்னேறியது.
1980களின் இறுதியில் Neural Networks பற்றிய ஆராய்ச்சி முன்னேறியிருந்தாலும், கணிப்பொறிகள் (Computers) தேவையான கணக்கீடுகளை செய்யும் அளவிற்கு வலிமையாக இருக்கவில்லை. Parallel Computing பெரிதாக வளராத நிலையில், மிகப்பெரிய அளவிலான தரவை (Big Data) செயலாக்க முடியாத நிலை இருந்தது. இதனால், AI விஞ்ஞானிகள் Statistics மற்றும் Probability சார்ந்த முறைகளை ஆராயத் தொடங்கினர். இதிலிருந்து Machine Learning எனும் புதிய துறை உருவாகியது, இது கணினிகளை விதிகளின் அடிப்படையில் அல்ல, முறைமுறையாக தரவிலிருந்து கற்றுக்கொள்ளும் முறையாக உருவாக்க முயற்சித்தது.
1990களில், Machine Learning முறைகள் உருவாகி, Rule-Based AI-யிலிருந்து Statistical AI-க்கான பெரிய மாற்றத்தை கொண்டு வந்தன. விஞ்ஞானிகள் Decision Trees, Support Vector Machines (SVM), Bayesian Networks போன்ற கோட்பாடுகளை உருவாக்கினர். இவை, AI-யை முன்பு இருந்த நிபுணர் அமைப்புகள் (Expert Systems) அல்லது Rule-Based Systems போன்று செயல்படுத்தாமல், தரவின் அடிப்படையில் தானாக முடிவெடுக்கக் கூடிய திறனை கொண்டதாக வடிவமைக்க முயன்றன. இதன் மூலம் AI சிறிய பிரச்சனைகளுக்கு மட்டுமல்லாமல், முடிவெடுக்கும் முறைகள், தரவின் மாதிரிகள் (Patterns), மற்றும் சிக்கலான செயல்பாடுகளை புரிந்து கொள்ளக்கூடியதாக மாறியது.
இந்த காலக்கட்டத்தில், AI-யின் பயன்பாடுகள் கணிசமாக அதிகரிக்கத் தொடங்கின. Natural Language Processing (NLP) முறைகள் வேகமாக முன்னேறியதால், மொழிபெயர்ப்பு, உரையாடல் அமைப்புகள் மற்றும் உரை பகுப்பாய்வு போன்ற துறைகள் வளர்ச்சியடைந்தன. IBM Watson போன்ற மேம்பட்ட AI Systems உருவாக்கப்பட்டன, குறிப்பாக தகவல்களை பகுப்பாய்வு செய்து, வினாக்களுக்கு பயனுள்ளதாக பதிலளிக்கக்கூடிய திறன் பெற்றன.
அதே நேரத்தில், Fraud Detection, Recommendation Systems, மற்றும் Web Search Engines போன்ற Data-Driven AI Models வணிக உலகில் பரவலாகப் பயன்படுத்தப்படத் தொடங்கின. Computer Vision மற்றும் Robotics துறைகளும் புதிய கட்டத்திற்குச் சென்றன, குறிப்பாக தொழிற்சாலைகள், மருத்துவம், மற்றும் தன்னியக்க வாகனங்கள் (Autonomous Vehicles) போன்ற துறைகளில் AI முக்கிய பங்கு வகிக்கத் தொடங்கியது. இதனால், AI ஆனது ஆய்வகங்களில் மட்டும் அல்லாது உண்மையான தொழில்துறைகளில் நுழைந்து, கணிசமான மாற்றங்களை உருவாக்கத் தொடங்கியது.
2000களில் கணிப்பொறிகள் பல மடங்கு வலுவடைந்தன. Parallel Computing, Cloud Computing, GPUs (Graphics Processing Units) போன்ற தொழில்நுட்பங்கள் வளர்ந்ததை தொடர்ந்து, பெரிய அளவிலான தரவை (Big Data) கையாள இயலும் சூழ்நிலை உருவாகியது. இதனால், 1980களில் தேக்கமடைந்திருந்த Neural Networks மீண்டும் முக்கியத்துவம் பெற தொடங்கின. கணினிகள் அதிகம் பயன்படுத்தக்கூடியதாக மாறியதால், விஞ்ஞானிகள் Machine Learning மற்றும் Deep Learning சார்ந்த ஆய்வுகளை மேலும் தீவிரப்படுத்தினர்.
Deep Learning என்ற புதுமையான துறை உருவாக்கப்பட்டதால், Multi-Layered Neural Networks மூலம் AI மிகவும் வலிமையானதாக மாறியது. இது, கணினிகளை தானாக தரவிலிருந்து கற்றுக்கொண்டு முடிவெடுக்கக்கூடியதாக மாற்றியது, மேலும் AI-யின் பயன்பாடுகளை வெகுவாக அதிகரித்தது. குறிப்பாக, Speech Recognition (Google Voice, Siri, Alexa), Image Recognition (Face Detection, Self-driving Cars), Natural Language Processing (Chatbots, Machine Translation), மற்றும் Medical AI (Cancer Detection, Drug Discovery) போன்ற துறைகள் பெரிய வளர்ச்சி கண்டன. AI முன்னேறுவதற்கு மிகப்பெரிய அடித்தளமாக Deep Learning துறையின் வளர்ச்சி அமைந்தது, மேலும் இது புதிய தீர்வுகளை கண்டுபிடிக்கவும், எளிதாக பிரச்சனைகளை தீர்க்கவும் கணினிகளை மிகவும் திறமையாக மாற்றியது.
2010களின் பிறகு, AI-யின் வளர்ச்சி ஒரு புதிய உச்சத்தை அடைந்தது. Deep Learning முறைகள் தரவின் ஆழமான தன்மைகளை புரிந்துகொள்ளும் திறனை அதிகரித்தன. முன்னதாக இருந்த Convolutional Neural Networks (CNNs) மற்றும் Recurrent Neural Networks (RNNs) போன்ற முறைகள் சில குறிப்பிட்ட பிரச்சனைகளுக்கு மட்டுமே பயன்பட்டன. ஆனால், AI-யின் வளர்ச்சியில் மிகப் பெரிய மாற்றத்தை கொண்டு வந்தது – Transformers Architecture.
2017-ஆம் ஆண்டு Google Brain Team வெளியிட்ட “Attention Is All You Need” ஆய்வு கட்டுரை, Transformers எனும் புதிய Deep Learning மாடலை உலகுக்கு அறிமுகப்படுத்தியது. இதன் முக்கியத்துவம் என்னவென்றால், இது மொத்த தகவல் தொகுப்பிலிருந்தும் (Context) முக்கியமான தரவுகளை கவனத்துடன் அணுகி செயலாக்கும் திறனை கொண்டது. இதன் மூலம், நீண்ட உரைகளை புரிந்து கொள்ளுதல், மொழிபெயர்ப்பு, உரையாடல் (Chatbots) போன்ற செயல்பாடுகளில் பெரும் முன்னேற்றம் ஏற்பட்டது.
Transformers-ல் அடிப்படையாக உருவான GPT (Generative Pre-trained Transformers), BERT (Bidirectional Encoder Representations from Transformers), மற்றும் T5, Llama, Mistral, Gemini போன்ற LLMs (Large Language Models) உள்ளிட்ட மாடல்கள் உருவாக்கப்பட்டன. இவை மனிதர்களை ஒத்த உரையாடல், மொழிபெயர்ப்பு மற்றும் தகவல் உருவாக்கம் போன்ற செயல்களை மிகச்சரியான முறையில் செய்யக்கூடியதாக உருவாகின.
அதே நேரத்தில், Generative AI வளர்ச்சி அடைந்து, AI படங்கள், வீடியோக்கள், பாடல்கள், மற்றும் மொழிபெயர்ப்பு போன்றவற்றை உருவாக்கும் திறன் பெற்றது. DALL-E, MidJourney, Stable Diffusion போன்ற தொழில்நுட்பங்கள் கணினியால் உருவாக்கப்படும் படங்களை மனிதர்களுக்கே அடையாளம் காண முடியாத அளவிற்கு உணர்வுப்பூர்வமாக மாற்றின. ChatGPT, Claude, Gemini போன்ற உரையாடல் மாடல்கள் தகவலை புரிந்து கொண்டு, மனிதர்களைப் போல பதிலளிக்க தொடங்கின.
இன்றைய AI பல முக்கிய துறைகளில் அதிவேகமாக முன்னேறி வருகிறது. மருத்துவத் துறையில் (Medical AI), நோய்களை கண்டறிந்து, மருத்துவ பரிசோதனைகளை துல்லியமாக மேற்கொள்வதில் முக்கிய பங்காற்றுகிறது. குறிப்பாக, Cancer Detection, Drug Discovery போன்ற துறைகளில் இது பெரிய மாற்றங்களை ஏற்படுத்தியுள்ளது. தன்னியக்க வாகனங்கள் (Autonomous Vehicles) போன்ற துறைகளில், Self-Driving Cars, Drones போன்ற தொழில்நுட்பங்கள் வேகமாக முன்னேறி வருகின்றன. Tesla, Waymo, Cruise போன்ற நிறுவனங்கள் முழுமையாக AI மூலம் இயக்கப்படும் வாகனங்களை உருவாக்கும் முயற்சியில் உள்ளன.
இதே நேரத்தில்,
Generative AI அதிவேகமாக வளர்ச்சி அடைந்து, ChatGPT, MidJourney, DALL-E போன்ற அமைப்புகள் உரைகள், படங்கள், வீடியோக்கள், மற்றும் 3D மாதிரிகள் போன்றவற்றை மனிதர்களைப் போல் உருவாக்கும் திறனை பெற்றுள்ளன. இது உருவாக்க சிந்தனை (Creative Thinking) பக்கத்திலும் AI-யின் வளர்ச்சியை புதிய உயரத்திற்கு கொண்டு சென்றுள்ளது. இதற்கேற்ப, Quantum AI-யும் வளர்ந்து, Quantum Computing-இன் மேம்பாட்டினால் மிகப்பெரிய மற்றும் சிக்கலான கணக்கீடுகளை செய்யக்கூடிய மாடல்கள் உருவாகி வருகின்றன. Google, IBM, Microsoft போன்ற நிறுவனங்கள் Quantum AI-ஐ முழுமையாக மேம்படுத்தி, வலைவிரித்த கணக்கீடுகள், மருந்தியல் ஆராய்ச்சி, மற்றும் சுற்றுச்சூழல் ஆய்வுகள் போன்ற பல பிரச்சனைகளை தீர்க்க முயலுகின்றன.
இந்நிலையில், மனித அறிவிற்கு இணையான செயற்கை நுண்ணறிவு (Artificial General Intelligence – AGI) உருவாகும் நாளும் தொலைவில் இல்லை என்றே கருதப்படுகிறது. தற்போது, AI நிபுணத்துவம் (Narrow AI) கொண்ட செயல்களை மட்டுமே செய்கிறது. ஆனால், எதிர்காலத்தில் மனிதர்களைப் போல பல்துறை அறிவாற்றல் கொண்ட AGI உருவாகலாம் என்ற எதிர்பார்ப்பு உள்ளது. இது மனிதர்களைப் போல் சிந்தித்து, தன்னிச்சையாக முடிவெடுக்கும் AI-ஐ உருவாக்கும் முயற்சியில் விஞ்ஞானிகள் தீவிரமாக ஈடுபட்டுள்ளனர். AGI-யின் தோற்றம், AI-யின் வரலாற்றில் மிகப்பெரிய புரட்சியாக மாறக்கூடும்.
AI-யின் வளர்ச்சி தொடர்ந்து மிக வேகமாக நடைபெற்று வருகிறது. Generative AI, Robotics, Computational Creativity, AGI போன்ற தொழில்நுட்பங்கள் முன்னேறி வரும் நிலையில், AI மனித வாழ்க்கையை மாற்றும் மிகப்பெரிய கண்டுபிடிப்பாக மாறியுள்ளது.
கணிப்பொறிகள் உருவாகி 80 ஆண்டுகள் ஆகின்றன, ஆனால் AI-யின் வளர்ச்சி கடந்த 20 ஆண்டுகளில் நிகழ்ந்த மிகப் பெரிய புரட்சி. இன்னும் பத்து ஆண்டுகளில், AI எவ்வாறு மாறும்? அது மனிதர்களுடன் இணைந்து செயல்படுமா? அல்லது, AI-யால் மனித அறிவைத் தாண்டி செல்லக்கூடிய புதிய நுண்ணறிவு உருவாகுமா?
இது நிச்சயமாக எதிர்காலத்தில் பெரும் ஆராய்ச்சிக்கும், விவாதத்திற்கும் உரிய விஷயமாக இருக்கும்!
இனி வரும் காலங்களில், AI-யின் எல்லைகள் மேலும் விரிவடையும் – அதுவே மனிதர்களுடன் ஒருங்கிணைந்து செயல்படும் அறிவாற்றல் அமைப்பாக மாறுமா? அல்லது மனித அறிவை மிஞ்சும் நிலையை அடையுமா?
முனைவர் ப. தமிழ் அரசன்
tamilarasanbakthavatchalam@gmail.com