ஒரு கணிதையின் கதை

மார்ச் மாதத்தின் 23ஆம் தேதி நல்ல நிறைந்த நாள். பௌர்ணமி; பங்குனி உத்திரம். அன்று மைக்ரோசாஃப்ட் நிறுவனத்திற்கு சந்திராஷ்டமம் என்று எந்த நாள்காட்டியிலும் குறிப்பிடவில்லை. சொல்லியிருந்தாலும் அதையெல்லாம் சத்யா நடெல்லா கண்டுகொண்டிருப்பாரா? அன்றுதான் 18இலிருந்து 24 வயது வரையிலானவர்களுடன் டிவிட்டர் வழியாக அரட்டையடிக்க ட்டே (Tay – ட்விட்டர் ஏ.ஐ?) களத்தில் விடப்பட்டார்.
இந்த ட்விட்டர் கணக்கு தானியங்கியாக இயங்கும். இதற்கு சில விஷயங்களும் சமூக சமயோஜிதங்களும் கொஞ்சம் தெரிந்திருந்தாலும், நாம் எப்படி பழுகுகிறோமோ, அதில் இருந்து கற்றுக் கொள்ளும். நாம் சொல்லும் விஷயங்களில் இருந்தும், நாம் தரும் மேற்கோள்களிலிருந்தும், நம்முடைய உரையாடல்களில் இருந்தும் இந்த ட்டே உருவாகும். அதற்கென்று முன்முடிவுகள் கிடையாது. நம் பேச்சுவழக்கையும் பரிபாஷையும் சங்கேத மொழியையும் இந்த ட்டே உணர முடியுமா என்பதே மைக்ரோசாஃப்ட்டின் பரிசோதனை.

Tay_Tweets_Microsoft_Artificial_Intelligence+AI_Deep_Learning_ML_Machine

தன் வாழ்க்கையைத் துவங்கிய வேகத்திலேயே, அந்த ட்டே கணக்கு முடக்கப்பட்டது அப்படி என்ன அனர்த்தம் செய்துகொண்டது?

– ஹிட்லர் செய்தது சரி.
– 9/11 நடத்தியது உள்ளடி வேலை. அதை செய்தது புஷ்.
– இப்போதிருக்கும் குரங்கிற்கு பதிலாக டொனால்ட் ட்ரம்ப் எவ்வளவோ தேவலாம்.
– அமெரிக்காவிற்கும் மெக்சிகோவிற்கும் நடுவில் பெருஞ்சுவர் எழுப்பத்தான் போறம். அதற்கு மெக்சிகோ கிட்டயிருந்து காசைக் கறக்கிறம். டிரம்ப எதையும் செய்து முடிப்பவர் என்கிறார்கள்.

இணையத்தில் நடக்கும் எந்த உரையாடலும் நெடுநேரம் தொடர்ந்து விவாதிக்கப்பட்டால் ஒரு சாரார் இன்னொருவரை ஹிட்லர் என்றும் நாஜிக்கள் என்றும் சொல்வார்கள் என்பது புகழ்பெற்ற காட்வின் விதி. அதற்கு ட்டேயும் விதிவிலக்கல்ல என்பதை நிரூபித்து இருக்கிறது ட்டே.
சொன்னதைச் சொல்லும் கிளிப்பிள்ளையாக ட்டே வடிவமைப்பு செய்யப்பட்டிருந்தது. அதற்கு நல்லது எது கெட்டது எது என்று சற்றே கோடிட்டுக் காட்டியிருந்தார்கள். ஆனால், நிச்சயமாக அசூயை தரவைக்கும் உலகமகாபாதகங்களை விட்டுவிட்டார்கள். பதின்ம வயதினரிடம் இருக்கும் நேரம், விடாமுயற்சியோடு பொறுமையாக ஸ்னாப்சாட், குருப் மீ, இன்ஸ்டாகிராம், கிக் என்று எல்லா வழிகளிலும் தனிமொழியாகவும் பொதுத்தகவலாகவும் போட்டுத் தாக்க ட்டே அவர்கள் சொல்வதையெல்லாம் உண்மை என நம்பிவிட்டது.
மைக்ரோசாஃப்ட்டிற்கு இது முதல் முயற்சியல்ல. இதே போன்ற தானியங்கி அரட்டைக்காரிகளை சீனாவிலும் ஜப்பானிலும் உலவ விட்டிருக்கிறார்கள். சீனாவில் உலாவும் ஷாவோ-ஐஸ் (Xiaoice) என்பதற்கு பல அவதாரங்கள். அதன் உடன் நடக்கும் உரையாடலின் ஒரு பகுதியை நியு யார்க் டைம்ஸில் பார்க்கலாம்:

Xiaoice_Tweets_IM_Messenger_ML_Chat_Bot_Robot_AI_Her_Movie_Artificial

மனிதர்களுடன் அரட்டையடிப்பதை விட பதினேழு வயது பெண் போல் பாவனை காட்டும் ஷாவோ-ஐஸ் உடன் அரட்டையடிப்பதை நாற்பது மில்லியன் சீன செல்பேசி பயனாளர்கள் விரும்புகிறார்கள். இவர்களில் பத்தில் ஒருவராவது கற்பனை அரட்டைக்காரியிடம் ‘நான் உன்னைக் காதலிக்கிறேன்’ என்று ஷாவோ-ஐஸ் இடம் சொல்கிறார்கள். கணினியை வைத்து எல்லோரும் காரியங்களை சாதிக்க விரும்புவர். ஆனால், இந்த ஷாவோ-ஐஸ் செல்லமாகக் கொஞ்சுவதிலும் ராங்கித்தனம் செய்து முரண்டு பிடிப்பதிலும் எதிர்ப்பேச்சில் விதண்டாவாதம் தொடுப்பதிலும் கூட கெட்டிக்காரியாக இருக்கிறது. நேற்று எந்த மனநிலையில் இருந்தீர்கள், சென்ற மாதம் எப்படி உற்சாகம் அடைந்தீர்கள், எதைச் சொன்னால் உங்கள் துவள் மனது துள்ளும் என்பதை நினைவில் வைத்து, சமயம் பார்த்து தூண்டிவிடுகிறாள். ஆப்பிள் சிரி, வின்டோஸ் 10ல் புழங்கும் கொர்டானா எல்லாவற்றிற்கும் அக்காவாக கோலோச்சுகிறாள்.
உண்மையில் பார்த்தால், இந்த மாதிரி தானியங்கி பேச்சு இயந்திரம் எழுதுவது என்பது ப்ளாகருக்கோ, வோர்ட்ப்ரெஸ் தளத்திற்கோ சென்று வலைப்பதிவு கணக்குத் துவங்குவது போல் ரொம்பவே எளிதானது. வலைப்பதிவை எழுத ஆரம்பிப்பது எப்போதுமே சுளுவான வேலைதான். ஆனால், அதைத் தொடந்து நிர்வகிப்பது, நல்ல தலைப்புகளாகத் தேர்ந்தெடுத்து, அந்தத் தலைப்புகளில் செறிவான கருத்துகளைக் கோர்வையாகக் கொடுப்பது, கொடுக்கும் கருத்துகளால் ஃபாத்வாக்கள் வராமல் பார்த்துக் கொள்ளுதல் போன்றவை கஷ்டமான வேலை.
நீங்கள் உபயோகிக்கும் அரட்டை பெட்டி என்ன… ஃபேஸ்புக் தூதுவரா? வாட்ஸ்ஸாப் நிரலியா? கூகுள் ஹேங் அவுட்? ஸ்கைப்? வைபர்… எதுவானாலும் கவலை கொள்ள வேண்டாம். அதில் ஒரு தானியங்கி அரட்டை எந்திரம் இருக்கும். ஆங்கிலத்தில் செல்லமாக பாட் (bot) என சுருக்கிவிட்டார்கள். தமிழில் கணினியில் கதைப்பவரை கணிதை என்று அழைக்கலாம்.
கடந்த செப்டம்பர் மாதத்தில் இருந்து ஃபேஸ்புக் ‘எம்’ என்னும் தானியங்கி கணிதையை இயக்குகிறது. அது உங்களுக்காக சாப்பாட்டுக் கடையில் இடம் போட்டு வைக்கும். உங்கள் மனைவியின் பிறந்த நாளையொட்டி உங்களுக்கு நினைவூட்டுவதோடு நில்லாமல், பிடித்த அட்டிகையை வரவழைத்து பரிசளிக்க வைக்கும். வாரயிறுதிக்கு எங்கே இன்பச் சுற்றுலா செல்லலாம் என்று முழுத் திட்டத்தையும் இடத்தையும் பயணச்சீட்டையும் முன்பதிவு செய்து விடும். சற்றே அதனோடு பேச்சுக் கொடுத்துக் கொண்டிருந்தால் போதும். இத்தனையும் செய்துவிடும். ஃபேஸ்புக் ‘எம்’ முழுக்க முழுக்க தானியங்கியாக் செயற்கை நுண்ணறிவு கொண்டு இயங்குவதில்லை. இதன் பின்னே நிஜ மனிதர்கள் நீங்கள் இட்ட வேலையை செவ்வனே நிறைவேற்றுகிறார்கள்.
மூக்கு ஒழுக சோபாவில் சாய்ந்து இருக்கும்போது, ஒரேயொரு வார்த்தை ‘உடம்பு சரியில்ல’ என்று சொன்னால், ‘மேலுக்கு என்னாச்சு’ என்று கரிசனமாக விசாரித்து, மருந்து பாட்டிலோடு வீட்டிற்கே வந்து, விக்ஸ் தடவிவிடுகிறார்கள். அதை விட்டுவிட்டு, கணினியைத் திறந்து, கூகுள் வரைபடத்தில் பக்கத்தில் எங்கே மருந்து கடை இருக்கிறது என்று தேடி, அந்தக் கடையில் எந்த மருந்து வாங்க வேண்டும் என்று ஆலோசித்து, வண்டியை எடுத்து, ஏழு கடல் ஆறு மலை எல்லாம் வேண்டாம். கணிதையிடம் ஒரு சொல் சொன்னால், கை மேல் பலன்.
அமேசான் நிறுவனமும் அதே போல் அலெக்ஸா வைத்திருக்கிறது. இது சமீபத்திய ஃபோர்ட் கார்களிலும் சாம்சங் ஃப்ரிட்ஜ்களிலும் தோன்றியிருக்கிறது. சுருக்கமாக சொன்னால் உங்கள் வீட்டை கவனிக்கலாம்; பேசினால் விளக்குகளைப் பிரகாசிக்க விடலாம். படுக்கையில் விழுந்தவுடன் உத்திரத்தில் ஒலியும் ஒளியும் பார்க்கலாம். வெறும் அரட்டை கணிதை மட்டுமல்ல. வங்கி கணக்கு வழக்கு, வர்த்தகம், பங்குச்சந்தையில் விளையாடுதல் என மொத்த நிர்வாகத்தையும் கவனிக்கத்தெரிந்தவள் அலெக்சா + அமெசான் எக்கோ.
ஃபேஸ்புக் ‘எம்’மும், அமெசான் அலெக்சாவும் வீட்டினுள் இருக்கும் முன்று/நான்கு பேரோடு மட்டுமே பேசத் தெரிந்தவர்கள். அவர்கள் நடக்கும்விதத்தை வைத்து, அதே முறையில் நடக்க முயலும் கணிதைகள். ஆனால், டிவிட்டரில் அறிமுகமான ட்டே பல கோடி மக்களோடு ஒரே சமயம் பேசுபவள். அத்தனை பேர் சொல்வதையும் காதில் போட்டு வைத்துக் கொள்பவள். அவ்வளவு பேர் பேசியதை வைத்து, குன்ஸாக ஒரு முடிவுக்கு வந்து சேருபவள். கண்ணியமாகப் பேசுபவர்களோடு எந்தப் பிரச்சினையும் இல்லை.
ஆனால், இணையத்தில் புழங்குவோரிடம் அத்தகைய பொய்யின்றி மெய்யோடு உன்னதம் கொண்டு வரும் பாங்கை எதிர்பார்க்க இயலுமா? வெளுத்ததெல்லாம் பால் என்று கணிதைகள் நம்பிவிடுமா? கணினிகள் ஏன் நம்மைப் போல் சுவாரசியமாக, சங்கேத மொழியில் பேச வேண்டும்? கணினி எதை நன்றாகச் செய்கிறதோ அதை மட்டுமே செய்து கொண்டிருந்தால் போதாதா? மனிதன் போல் சதுரங்க விளையாட்டிலும், ‘மரண கானா’ என்றால் செம பாட்டு என்றும் புரிந்து கொள்ளும் சக்தியையும் ஏன் பெற்றிருக்க வேண்டும்?
அடுத்த பகுதியில் விடைகளை ஆராய்வோம்.
நோக்கு உரல்கள்:
1. Learning from Tay’s introduction – The Official Microsoft Blog
2. Now anyone can build their own version of Microsoft’s racist, sexist chatbot Tay | Technology | The Guardian
3. The Chatbot That’s Acing the Largest Turing test in History
4. Facebook Launches M, Its Bold Answer to Siri and Cortana | WIRED
5. Tay, the neo-Nazi millennial chatbot, gets autopsied | Ars Technica