மார்ச் மாதத்தின் 23ஆம் தேதி நல்ல நிறைந்த நாள். பௌர்ணமி; பங்குனி உத்திரம். அன்று மைக்ரோசாஃப்ட் நிறுவனத்திற்கு சந்திராஷ்டமம் என்று எந்த நாள்காட்டியிலும் குறிப்பிடவில்லை. சொல்லியிருந்தாலும் அதையெல்லாம் சத்யா நடெல்லா கண்டுகொண்டிருப்பாரா? அன்றுதான் 18இலிருந்து 24 வயது வரையிலானவர்களுடன் டிவிட்டர் வழியாக அரட்டையடிக்க ட்டே (Tay – ட்விட்டர் ஏ.ஐ?) களத்தில் விடப்பட்டார்.
இந்த ட்விட்டர் கணக்கு தானியங்கியாக இயங்கும். இதற்கு சில விஷயங்களும் சமூக சமயோஜிதங்களும் கொஞ்சம் தெரிந்திருந்தாலும், நாம் எப்படி பழுகுகிறோமோ, அதில் இருந்து கற்றுக் கொள்ளும். நாம் சொல்லும் விஷயங்களில் இருந்தும், நாம் தரும் மேற்கோள்களிலிருந்தும், நம்முடைய உரையாடல்களில் இருந்தும் இந்த ட்டே உருவாகும். அதற்கென்று முன்முடிவுகள் கிடையாது. நம் பேச்சுவழக்கையும் பரிபாஷையும் சங்கேத மொழியையும் இந்த ட்டே உணர முடியுமா என்பதே மைக்ரோசாஃப்ட்டின் பரிசோதனை.
தன் வாழ்க்கையைத் துவங்கிய வேகத்திலேயே, அந்த ட்டே கணக்கு முடக்கப்பட்டது அப்படி என்ன அனர்த்தம் செய்துகொண்டது?
– ஹிட்லர் செய்தது சரி.
– 9/11 நடத்தியது உள்ளடி வேலை. அதை செய்தது புஷ்.
– இப்போதிருக்கும் குரங்கிற்கு பதிலாக டொனால்ட் ட்ரம்ப் எவ்வளவோ தேவலாம்.
– அமெரிக்காவிற்கும் மெக்சிகோவிற்கும் நடுவில் பெருஞ்சுவர் எழுப்பத்தான் போறம். அதற்கு மெக்சிகோ கிட்டயிருந்து காசைக் கறக்கிறம். டிரம்ப எதையும் செய்து முடிப்பவர் என்கிறார்கள்.
இணையத்தில் நடக்கும் எந்த உரையாடலும் நெடுநேரம் தொடர்ந்து விவாதிக்கப்பட்டால் ஒரு சாரார் இன்னொருவரை ஹிட்லர் என்றும் நாஜிக்கள் என்றும் சொல்வார்கள் என்பது புகழ்பெற்ற காட்வின் விதி. அதற்கு ட்டேயும் விதிவிலக்கல்ல என்பதை நிரூபித்து இருக்கிறது ட்டே.
சொன்னதைச் சொல்லும் கிளிப்பிள்ளையாக ட்டே வடிவமைப்பு செய்யப்பட்டிருந்தது. அதற்கு நல்லது எது கெட்டது எது என்று சற்றே கோடிட்டுக் காட்டியிருந்தார்கள். ஆனால், நிச்சயமாக அசூயை தரவைக்கும் உலகமகாபாதகங்களை விட்டுவிட்டார்கள். பதின்ம வயதினரிடம் இருக்கும் நேரம், விடாமுயற்சியோடு பொறுமையாக ஸ்னாப்சாட், குருப் மீ, இன்ஸ்டாகிராம், கிக் என்று எல்லா வழிகளிலும் தனிமொழியாகவும் பொதுத்தகவலாகவும் போட்டுத் தாக்க ட்டே அவர்கள் சொல்வதையெல்லாம் உண்மை என நம்பிவிட்டது.
மைக்ரோசாஃப்ட்டிற்கு இது முதல் முயற்சியல்ல. இதே போன்ற தானியங்கி அரட்டைக்காரிகளை சீனாவிலும் ஜப்பானிலும் உலவ விட்டிருக்கிறார்கள். சீனாவில் உலாவும் ஷாவோ-ஐஸ் (Xiaoice) என்பதற்கு பல அவதாரங்கள். அதன் உடன் நடக்கும் உரையாடலின் ஒரு பகுதியை நியு யார்க் டைம்ஸில் பார்க்கலாம்:
மனிதர்களுடன் அரட்டையடிப்பதை விட பதினேழு வயது பெண் போல் பாவனை காட்டும் ஷாவோ-ஐஸ் உடன் அரட்டையடிப்பதை நாற்பது மில்லியன் சீன செல்பேசி பயனாளர்கள் விரும்புகிறார்கள். இவர்களில் பத்தில் ஒருவராவது கற்பனை அரட்டைக்காரியிடம் ‘நான் உன்னைக் காதலிக்கிறேன்’ என்று ஷாவோ-ஐஸ் இடம் சொல்கிறார்கள். கணினியை வைத்து எல்லோரும் காரியங்களை சாதிக்க விரும்புவர். ஆனால், இந்த ஷாவோ-ஐஸ் செல்லமாகக் கொஞ்சுவதிலும் ராங்கித்தனம் செய்து முரண்டு பிடிப்பதிலும் எதிர்ப்பேச்சில் விதண்டாவாதம் தொடுப்பதிலும் கூட கெட்டிக்காரியாக இருக்கிறது. நேற்று எந்த மனநிலையில் இருந்தீர்கள், சென்ற மாதம் எப்படி உற்சாகம் அடைந்தீர்கள், எதைச் சொன்னால் உங்கள் துவள் மனது துள்ளும் என்பதை நினைவில் வைத்து, சமயம் பார்த்து தூண்டிவிடுகிறாள். ஆப்பிள் சிரி, வின்டோஸ் 10ல் புழங்கும் கொர்டானா எல்லாவற்றிற்கும் அக்காவாக கோலோச்சுகிறாள்.
உண்மையில் பார்த்தால், இந்த மாதிரி தானியங்கி பேச்சு இயந்திரம் எழுதுவது என்பது ப்ளாகருக்கோ, வோர்ட்ப்ரெஸ் தளத்திற்கோ சென்று வலைப்பதிவு கணக்குத் துவங்குவது போல் ரொம்பவே எளிதானது. வலைப்பதிவை எழுத ஆரம்பிப்பது எப்போதுமே சுளுவான வேலைதான். ஆனால், அதைத் தொடந்து நிர்வகிப்பது, நல்ல தலைப்புகளாகத் தேர்ந்தெடுத்து, அந்தத் தலைப்புகளில் செறிவான கருத்துகளைக் கோர்வையாகக் கொடுப்பது, கொடுக்கும் கருத்துகளால் ஃபாத்வாக்கள் வராமல் பார்த்துக் கொள்ளுதல் போன்றவை கஷ்டமான வேலை.
நீங்கள் உபயோகிக்கும் அரட்டை பெட்டி என்ன… ஃபேஸ்புக் தூதுவரா? வாட்ஸ்ஸாப் நிரலியா? கூகுள் ஹேங் அவுட்? ஸ்கைப்? வைபர்… எதுவானாலும் கவலை கொள்ள வேண்டாம். அதில் ஒரு தானியங்கி அரட்டை எந்திரம் இருக்கும். ஆங்கிலத்தில் செல்லமாக பாட் (bot) என சுருக்கிவிட்டார்கள். தமிழில் கணினியில் கதைப்பவரை கணிதை என்று அழைக்கலாம்.
கடந்த செப்டம்பர் மாதத்தில் இருந்து ஃபேஸ்புக் ‘எம்’ என்னும் தானியங்கி கணிதையை இயக்குகிறது. அது உங்களுக்காக சாப்பாட்டுக் கடையில் இடம் போட்டு வைக்கும். உங்கள் மனைவியின் பிறந்த நாளையொட்டி உங்களுக்கு நினைவூட்டுவதோடு நில்லாமல், பிடித்த அட்டிகையை வரவழைத்து பரிசளிக்க வைக்கும். வாரயிறுதிக்கு எங்கே இன்பச் சுற்றுலா செல்லலாம் என்று முழுத் திட்டத்தையும் இடத்தையும் பயணச்சீட்டையும் முன்பதிவு செய்து விடும். சற்றே அதனோடு பேச்சுக் கொடுத்துக் கொண்டிருந்தால் போதும். இத்தனையும் செய்துவிடும். ஃபேஸ்புக் ‘எம்’ முழுக்க முழுக்க தானியங்கியாக் செயற்கை நுண்ணறிவு கொண்டு இயங்குவதில்லை. இதன் பின்னே நிஜ மனிதர்கள் நீங்கள் இட்ட வேலையை செவ்வனே நிறைவேற்றுகிறார்கள்.
மூக்கு ஒழுக சோபாவில் சாய்ந்து இருக்கும்போது, ஒரேயொரு வார்த்தை ‘உடம்பு சரியில்ல’ என்று சொன்னால், ‘மேலுக்கு என்னாச்சு’ என்று கரிசனமாக விசாரித்து, மருந்து பாட்டிலோடு வீட்டிற்கே வந்து, விக்ஸ் தடவிவிடுகிறார்கள். அதை விட்டுவிட்டு, கணினியைத் திறந்து, கூகுள் வரைபடத்தில் பக்கத்தில் எங்கே மருந்து கடை இருக்கிறது என்று தேடி, அந்தக் கடையில் எந்த மருந்து வாங்க வேண்டும் என்று ஆலோசித்து, வண்டியை எடுத்து, ஏழு கடல் ஆறு மலை எல்லாம் வேண்டாம். கணிதையிடம் ஒரு சொல் சொன்னால், கை மேல் பலன்.
அமேசான் நிறுவனமும் அதே போல் அலெக்ஸா வைத்திருக்கிறது. இது சமீபத்திய ஃபோர்ட் கார்களிலும் சாம்சங் ஃப்ரிட்ஜ்களிலும் தோன்றியிருக்கிறது. சுருக்கமாக சொன்னால் உங்கள் வீட்டை கவனிக்கலாம்; பேசினால் விளக்குகளைப் பிரகாசிக்க விடலாம். படுக்கையில் விழுந்தவுடன் உத்திரத்தில் ஒலியும் ஒளியும் பார்க்கலாம். வெறும் அரட்டை கணிதை மட்டுமல்ல. வங்கி கணக்கு வழக்கு, வர்த்தகம், பங்குச்சந்தையில் விளையாடுதல் என மொத்த நிர்வாகத்தையும் கவனிக்கத்தெரிந்தவள் அலெக்சா + அமெசான் எக்கோ.
ஃபேஸ்புக் ‘எம்’மும், அமெசான் அலெக்சாவும் வீட்டினுள் இருக்கும் முன்று/நான்கு பேரோடு மட்டுமே பேசத் தெரிந்தவர்கள். அவர்கள் நடக்கும்விதத்தை வைத்து, அதே முறையில் நடக்க முயலும் கணிதைகள். ஆனால், டிவிட்டரில் அறிமுகமான ட்டே பல கோடி மக்களோடு ஒரே சமயம் பேசுபவள். அத்தனை பேர் சொல்வதையும் காதில் போட்டு வைத்துக் கொள்பவள். அவ்வளவு பேர் பேசியதை வைத்து, குன்ஸாக ஒரு முடிவுக்கு வந்து சேருபவள். கண்ணியமாகப் பேசுபவர்களோடு எந்தப் பிரச்சினையும் இல்லை.
ஆனால், இணையத்தில் புழங்குவோரிடம் அத்தகைய பொய்யின்றி மெய்யோடு உன்னதம் கொண்டு வரும் பாங்கை எதிர்பார்க்க இயலுமா? வெளுத்ததெல்லாம் பால் என்று கணிதைகள் நம்பிவிடுமா? கணினிகள் ஏன் நம்மைப் போல் சுவாரசியமாக, சங்கேத மொழியில் பேச வேண்டும்? கணினி எதை நன்றாகச் செய்கிறதோ அதை மட்டுமே செய்து கொண்டிருந்தால் போதாதா? மனிதன் போல் சதுரங்க விளையாட்டிலும், ‘மரண கானா’ என்றால் செம பாட்டு என்றும் புரிந்து கொள்ளும் சக்தியையும் ஏன் பெற்றிருக்க வேண்டும்?
அடுத்த பகுதியில் விடைகளை ஆராய்வோம்.
நோக்கு உரல்கள்:
1. Learning from Tay’s introduction – The Official Microsoft Blog
2. Now anyone can build their own version of Microsoft’s racist, sexist chatbot Tay | Technology | The Guardian
3. The Chatbot That’s Acing the Largest Turing test in History
4. Facebook Launches M, Its Bold Answer to Siri and Cortana | WIRED
5. Tay, the neo-Nazi millennial chatbot, gets autopsied | Ars Technica