zWZ3ZJ90R4zzhbql6NUZDSuEAK5vmsQ96TEJw5QR
Theme
Share
Search
Menu

RANDOM / BY LABEL (Style 4)

Trending

Bookmark

කන්දක් විළි ලා කෙන්දක් වැදූ සුනාක්ගේ සමුළුව

Vishwa Alert Service: Join Our Vishwa Magazine Group to get top quality service and be aware of the unknowns of the daily world.



අප පසුකරමින් සිටින්නේ කෘත්‍රිම බුද්ධිය යා යුතු මඟ කුමක් දැ යි තෝරා බේරා ගැනීම ගැන අදහස් උදහස් ලොව නන් දෙසින් ඇසෙන සමයක්. කෘත්‍රිම බුද්ධියේ ‘ගොඩ්ෆාදර්’ ලෙස හැඳින්වෙන Geoffrey Hinton වැනි පුරෝගාමී විද්‍යාඥයන් පවා ‘මේක ඉස්සරහට කොහොම වැඩ කරයි ද දන්නෙ නෑ’යි අනතුරු අඟවද්දී කෘත්‍රිම බුද්ධියට මඳක් විවේක දිය යුතු නැති ද? මිනිසා හරිහැ‍ටි අවබෝධ කරගන්නට සමත් නො වූ මාවතක් දිගේ ඉදිරියට යන කෘත්‍රිම බුද්ධිය මේච්චල් කර ගැනීම කළ හැකි දෙයක් ද? මහා බ්‍රිතාන්‍යයේ අගමැති රිෂි සුනාක් මේ ගැන බරපතළ ලෙස සිතන්නට පටන්ගෙන ඇති බව පසුගිය සති කිහිපය පුරා එරට දී පැවැත්වුණු AI Safety Summit හෙවත් ‘කෘත්‍රිම බුද්ධි ආරක්ෂණ සමුළුව’ දෙස බලද්දී පෙනී යනවා.

පසුගිය නොවැම්බර් 01 සහ 02 දෙ දින තුළ එංගලන්තයේ Bletchley Parkහි පැවැති මෙම සමුළුව කරුණු කිහිපයක් නිසා වැදගත් වනවා. කෘත්‍රිම බුද්ධියෙන් මතු වන අභියෝග සහ අවදානම් සහගත අවස්ථා පාලනය කරගැනීමට ජාත්‍යන්තර සහයෝගයකින් ක්‍රියා කිරීම පිණිස එකඟත්වයක් ඇති කරගැනීම ඉන් කැපී පෙනෙනවා. ‍බ්ලෙච්ලේ ප්‍රකාශනය ලෙස හැඳින්වෙන එය ඇමරිකා එක්සත් ජනපදය, චීනය, යුරෝපා සංවිධානය ඇතුළු රටවල් 28ක නියෝජනයන්ගෙන් යුතු වීම විශේෂත්වයක්. අපරාධ, යුදමය හෝ ත්‍රස්ථ ක්‍රියාවලට කෘත්‍රිම බුද්ධිය භාවිතා වීමේ දුර්විභවයන් පිළිබඳ ව මෙන් ම සමස්ත මානව සංහතියේ පැවැත්මට පැන නැඟිය හැකි අවදානම ගැන ද මෙහි දී අවධානය යොමු වුණා.

මෙයට සමගාමී ව ඇමරිකානු ජනාධිපති ජෝ බයිඩන් ද විධායක නියෝගයක් (executive order) නිකුත් කරමින් එරට සියලු ‘කෘත්‍රිම බුද්ධි සංවර්ධකයන්’ වෙත නියෝග කළේ සිය පද්ධතීන්ගේ සුරක්ෂිතතා පරීක්ෂණවල ප්‍රතිඵල රජය වෙත ඉදිරිපත් කළ යුතු බවයි. කෘත්‍රිම බුද්ධි පාදක යෙදවුම්වල සුරක්ෂිත මෙන් ම විශ්වාසදායී බව සහතික කළ හැකි ප්‍රමිතීන් සහ තත්ත්ව පරීක්ෂණ සැලසුම් කිරීම එරට ජාතික ප්‍රමිති සහ තාක්ෂණ ආයතනය වෙත පැවරීමත්, ස්වදේශ ආරක්ෂණ දෙපාර්තමේන්තුවට (Dept. of Homeland Security) AI Safety and Security Board හෙවත් ‘කෘත්‍රිම බුද්ධි සුරක්ෂිතතා හා ආරක්ෂණ මණ්ඩලය’ක් තැනීමට පැවරීමත් ඉන් සිදු වුණා.

කෙසේ නමුත් මේ ව්‍යායාම දෙක දෙස විෂය ප්‍රාමාණිකයන් බලන්නේ මිශ්‍ර හැඟීමෙන් බව පෙනෙන්නට තිබුණා. ‘අරක කරමු; මේක කරමු’ ආදී ප්‍රකාශයන් මිස සැබෑ පැහැදිලි වැඩපිළිවෙළක් ඒවායේ ගැබ් ව පවතී ද යන විචිකිච්ඡාව ඔවුන් තුළ අරක් ගෙන තිබෙනවා. New Scientist සිය ‘විශ්ලේෂණ’ තීරුවේ පෙළගස්වා ඇති පරිදි එයට සාධාරණ හේතු කිහිපයක් ම තිබෙනවා.

සමුළුවේ දෙ වන දිනය ආරම්භ කරමින් ජනමාධ්‍යවේදීන් ඉදිරියේ කතා කළ සුනාක් පවසා සිටියේ ජනතාව කෘත්‍රිම බුද්ධිය ගැන ‘සංත්‍රාසය දනවන’ ප්‍රකාශයන්ගෙන් වැළකී සිටිය යුතු බවයි. ඉන් සුළු මොහොතක ඇවෑමෙන් කෘත්‍රිම බුද්ධිය, න්‍යෂ්ටික යුද්ධය තරම් ම බියජනක විය හැකි බව ඔහු ම පවසා තිබුණා. ඉතින්, එය ම පැටලිලි සහගත ආරම්භයක් නො වන්නේ ද?

වර්ථමානයේ පවතින ව්‍යාකූල ගෝලීය දේශපාලන සිතියම මත පිහිටා වුව පරස්පර අදහස් ඇති බලකඳවුරු එක අරමුණක් වෙනුවෙන් එකතු වීම අගය කළ යුතු කරුණක් බව අවිවාදිතයි. නමුත් විශ්ලේෂකයන් පෙන්ව‍ා දෙන පරිදි ඉන් ගැනුණු එක ම ස්ථිරසාර තීරණය නම් අනාගතයේ මේ පිළිබඳ සාකච්ඡා කිරීම සඳහා තව තවත් සමුළු පැවැත්වීමයි. මේ මුළු සමුළුවේ ම කතිකා කරගත් දෑ ChatGPT ඔස්සේ ලියවාගෙන ඊමේල් මඟින් යවාගත්තා නම් දුරු කතර ගෙවා එහි පැමිණි නියෝජිතයන්ගේ ජෙට්වලින් එකතු වූ කාබන් විමෝචනයවත් අඩු කරගන්නට තිබූ බව වඩාත් සැරට ලියැවී ඇති New Scientist විශ්ලේෂණ ලිපිය පෙන්ව‍ා දෙනවා.

සමුළුවට සහභාගී වන මෙන් ආරාධනා නො ලැබ සිටි කෘත්‍රිම බුද්ධි සදාචාරවේදිනියක වන ඔක්ස්ෆර්ඩ් විශ්වවිද්‍යාලයේ සහකාර මහාචාර්ය Carissa Véliz පවසන්නේ තමා ‘තව තවත් සමුළු‍‍‍ ගැන සහතික වන සමුළුවකින්’ සෑහීමකට පත් නො වන බවයි. කෘත්‍රිම බුද්ධිය නියාමනය කළ හැකි නෛතික රාමුවක් නිමවීම සහ ගෝලීය වශයෙන් එකඟත්වයකට පැමිණීම අප හැම දා ම පරක්කු කළ දෙයක් බව ඇය අවධාරණය කරනවා. කෘත්‍රිම බුද්ධි යෙදවුම්වල ශිඝ්‍ර සංවර්ධනය සහ ස්ථාපනය හේතුවෙන් අනාගතයේ තවත් සමුළුවක් පැවැත්වීම ඇල්මැරුණු ක්‍රියා පිළිවෙතක් වනු ඇති බවයි ඇගේ අදහස.

සත්‍ය හෙට්ටිආරච්චි



Join our Whatsapp Group To get latest updates and superior service ✅
Post a Comment

Post a Comment

What is your opinion on this article?
Youtube Channel Image
VISHWA MAGAZINE Join our whatsapp group
JOIN
error: Content is protected !!