‘ಡೀಪ್ ಫೇಕ್ಸ್’ ತಂತ್ರಜ್ಞಾನ ಈಗ ಎಷ್ಟು ಪ್ರೌಢಮಟ್ಟ ಸಾಧಿsಸಿದೆಯೆಂದರೆ ಹೇಗೋ ಕೇವಲ ಹತ್ತು ಸೆಕೆಂಡಿನಷ್ಟು ಯಾರದಾದರೂ ಮಾತಿನ ತುಣುಕು ಲಭ್ಯವಾದರೂ ಸಾಕು; ಅದನ್ನು ಬಳಸಿ ಆ ವ್ಯಕ್ತಿಯದೇ ಎನಿಸುವ ದೀರ್ಘ ಹೇಳಿಕೆಯನ್ನು ಸೃಷ್ಟಿಸಿಬಿಡಬಹುದು. ಈ ತಂತ್ರಜ್ಞಾನ ಬಳಸಿ ಪ್ರಸಾರಕರು ಯಾವುದೊ ಅಧಿಕೃತ ಸರ್ಕಾರೀ ಸಂಸ್ಥೆಯ ಪ್ರತಿನಿಧಿಗಳೆಂದು ಕೇಳುಗರನ್ನು ನಂಬಿಸಬಹುದು. ಕಳೆದ (೨೦೨೪) ಸೆಪ್ಟೆಂಬರ್ ತಿಂಗಳಲ್ಲಿ ಒಬ್ಬ ಚಾಣಾಕ್ಷ ತಾನು ಉಕ್ರೇನ್ ದೇಶದ ವಿದೇಶಾಂಗ ಮಂತ್ರಿ ದಮಿತ್ರೋ ಕುಲೇಬಾ ಎಂದು ಸೋಗು ಹಾಕಿ ಅಮೆರಿಕ ಸರ್ಕಾರದ ವಿದೇಶ ಸಂಬಂಧ ಸಮಿತಿಯ ಅಧ್ಯಕ್ಷ ಬೆಂಜಮಿನ್ ಎಲ್. ಕಾರ್ಡಿನ್ರೊಡನೆ ಸಂವಾದವನ್ನು ನಡೆಸಿದ್ದ. ಎಷ್ಟು ಪ್ರಮಾಣದಲ್ಲಿ ರಾಜ್ಯಾಂಗ ಧೋರಣೆಗಳ ಮೇಲೆ ಈ ಮೋಸಗಾರಿಕೆ ಪ್ರಭಾವ ಬೀರಬಹುದೆನ್ನಲು ಇಂತಹ ಹಲವಾರು ಪ್ರಸಂಗಗಳ ನಿದರ್ಶನಗಳಿವೆ. ನಾಲ್ಕೈದು ವರ್ಷಗಳಿಂದ ಜಗತ್ತಿನೆಲ್ಲೆಡೆ ಇಂತಹ ಠಕ್ಕು ನಡೆದಿದೆ. ಹೆಚ್ಚಿನವರಿಗೆ ಈ ತಂತ್ರಜ್ಞಾನದ ಪರಿಜ್ಞಾನದ ಅರಿವಿಲ್ಲದುದು ಮೋಸಗಾರರಿಗೆ ವರದಾನವಾಗಿದೆ. ಡೀಪ್ಫೇಕ್ಸ್–ಪ್ರತಿಬಂಧಕ ಸಾಧನಗಳ ಹೆಚ್ಚಿನ ಬಳಕೆ ಮಾತ್ರ ಈ ಮೋಸಗಾರಿಕೆಗೆ ಒಂದಷ್ಟು ಕಡಿವಾಣ ಹಾಕೀತು.
ಮೂಲ ಕೃತಿಯೊಂದರ ತಳಹದಿಯ ಮೇಲೆ ‘ಆಳ-ನಕಲು’ ಅಥವಾ ‘ಗಾಢ-ರೂಪಾಂತರ’ ಮಾಡಿದ ವಿಡಿಯೋ, ಆಡಿಯೋ ಅಥವಾ ಚಿತ್ರವನ್ನು ಡಿಜಿಟಲ್ ತಂತ್ರಜ್ಞಾನದ ಸಹಾಯದಿಂದ ಸೃಷ್ಟಿಮಾಡುವುದನ್ನು ‘ಡೀಪ್-ಫೇಕ್’ ಎಂದು ಹೆಸರಿಸಲಾಗಿದೆ. ಮನುಷ್ಯರ, ಪ್ರಾಣಿಗಳ ಅಥವಾ ಯಾವುದೇ ಚಿತ್ರವನ್ನು ನಕಲು ಮಾಡಿ ಅವಕ್ಕೆ ಬದಲಾದ ರೂಪ, ಧ್ವನಿ, ದೇಹಗಳನ್ನು ಅಳವಡಿಸಿ ಮೂಲ ರೂಪವನ್ನು ಕೃತ್ರಿಮ ಹಾವಭಾವಗಳಿಂದ ಚಿತ್ರಿಸಿ ಬೇರೆಯದೇ ರೀತಿಯಲ್ಲಿ ತೋರಿಸುವ ತಂತ್ರಜ್ಞಾನವು ‘ಡೀಪ್-ಫೇಕ್’ ಆಗಿದ್ದು, ಇದು ಇಂದಿನ ಕಂಪ್ಯೂಟರ್ ಯುಗದ ಮತ್ತೊಂದು ಹೊಸ ಅನ್ವೇಷಣೆ.
‘ನಕಲು’ ಅಥವಾ ‘ರೂಪಾಂತರ’ ಎನ್ನುವುದು ಹಳೆಯ ಪರಿಕಲ್ಪನೆಯ ಮುಂದುವರಿದ ಭಾಗವೇ ಆಗಿದೆ. ಚಲನಚಿತ್ರಗಳಲ್ಲಿ ಇಂತಹ ತಂತ್ರಗಳನ್ನು ಈ ಹಿಂದೆಯೂ ಹೆಚ್ಚಾಗಿ ಬಳಸಲಾಗಿತ್ತು. ಬೇರೊಬ್ಬರ ತುಟಿ ಚಲನೆಗೆ ಮತ್ತೊಬ್ಬರ ಧ್ವನಿ ಹೊಂದಿಸುವುದು; ಬೇರೊಬ್ಬರ ದೇಹಕ್ಕೆ ಯಾವುದೋ ಮುಖ ಜೋಡಿಸಿ ಪರದೆಯ ಮೇಲೆ ತೋರಿಸುವುದು ಮುಂತಾದವು, ಮನರಂಜನೆಯ ಉದ್ದೇಶವಿಟ್ಟುಕೊಂಡು ಹುಟ್ಟಿಕೊಂಡ ತಂತ್ರಜ್ಞಾನವಾಗಿತ್ತು.
ಇತ್ತೀಚೆಗಿನ ರೂಪಾಂತರ ತಂತ್ರವು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಒಂದು ಭಾಗ. ಅಲ್ಗಾರಿದಮ್ ಮೂಲಕ ಇನ್ನೊಬ್ಬರ ಮುಖಭಾವಗಳನ್ನು ಆಳ ಪದರಗಳಲ್ಲಿ ವಿಶ್ಲೇಷಿಸಿ, ನಕಲಿ ರಚನೆಗಳಿಗೆ ಹೊಂದಿಸಬಹುದಾಗಿದೆ. ವ್ಯಕ್ತಿಯ ಮೂಲ ಮುಖ ಮತ್ತು ಧ್ವನಿಯನ್ನು ಬದಲಿಸಿ, ನೈಜವೆನಿಸುವಂಥ ವಿಡಿಯೋ ಮತ್ತು ಆಡಿಯೋಗಳನ್ನು ರಚಿಸುವ ಸಾಮರ್ಥ್ಯ ಇದಕ್ಕಿದೆ. ಇದಕ್ಕೆ ಉದಾಹರಣೆ ಕೊಡಬಹುದಾದರೆ, ಗತಿಸಿದ ನಟನೊಬ್ಬನನ್ನು ಚಿತ್ರವೊಂದರಲ್ಲಿ ಜೀವಂತವಾಗಿರುವಂತೆ ತೋರಿಸಿರುವುದು. ಭೌತಿಕವಾಗಿ ಜೀವ ತೊರೆದಿರುವ ಇಂಗ್ಲಿಷ್ ನಟರಾದ ಪಾಲ್ವಾಕರ್ ಅವರನ್ನು ಮರುಸೃಷ್ಟಿ ಮಾಡಿ “ಫಾಸ್ಟ್ & ಫ್ಯೂರಿಯಸ್-೭” ಚಿತ್ರ ತಯಾರಿಸಲಾಗಿದೆ! ಆ ಚಿತ್ರದಲ್ಲಿ ದಿವಂಗತ ನಟ ಇತರ ಪಾತ್ರಧಾರಿಗಳೊಂದಿಗೆ ನಟಿಸಿದ್ದಾರೆ! ಇಂಥ ಪ್ರಯೋಗಗಳು ನಿಜಕ್ಕೂ ಅದ್ಭುತವೇ. ಕಲೆಯ ದೃಷ್ಟಿಯಿಂದ ಅಥವಾ ಮನರಂಜನೆಯ ಭಾಗವಾಗಿ ಇಂಥವೆಲ್ಲ ಮೆಚ್ಚುವಂತಹ ಕಾರ್ಯಗಳೇ.
‘ಡೀಪ್-ಫೇಕ್’ ಎನ್ನುವುದು ಆಳ ಅಧ್ಯಯನದ ಮೂಲಕ (Deep Learning), ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (Artificial Intelligence) ಮತ್ತು ‘ಫೋಟೋಶಾಪಿಂಗ್’ (Photoshopping) ತಂತ್ರಗಳ ಅಳವಡಿಕೆಯೊಂದಿಗೆ ಭ್ರಮೆಯನ್ನು ಸೃಷ್ಟಿಸುವ ವಿಡಿಯೋ ಅಥವಾ ಚಿತ್ರ ರಚಿಸುವ ತಂತ್ರವಾಗಿದೆ. ಜನರೇಟಿವ್ ಅಡ್ವರ್ಸರಿಯಲ್ ನೆಟ್ವರ್ಕ್ಗಳು (GAN) ಮತ್ತು ಮೆಷಿನ್ಲರ್ನಿಂಗ್ (ML) ಎಂಬ ತಂತ್ರಜ್ಞಾನಗಳ ಪರಸ್ಪರ ಸಂಯೋಜನೆ ಮತ್ತು ಅಳವಡಿಕೆಯಿಂದ ವಿಡಿಯೋಗಳನ್ನು ರಚಿಸಲಾಗುತ್ತದೆ. ವ್ಯಕ್ತಿಯ ಮುಖಭಾವ, ಸನ್ನೆ ಮತ್ತು ಮಾತುಗಳನ್ನು ಇನ್ನೊಬ್ಬ ವ್ಯಕ್ತಿಯ ಜೊತೆಗೆ, ನೈಪುಣ್ಯ ಮತ್ತು ನಿಖರತೆಯೊಂದಿಗೆ ಬದಲಾಯಿಸುವ/ರೂಪಾಂತರಿಸುವ ಇಂಥ ವಿಡಿಯೋಗಳನ್ನು ನೋಡುಗರು ಸುಲಭದಲ್ಲಿ ಗ್ರಹಿಸಲು ಅಸಾಧ್ಯ. ಈ ತಂತ್ರಜ್ಞಾನವನ್ನು ಹೆಚ್ಚಾಗಿ ಶೈಕ್ಷಣಿಕ ಹಾಗೂ ಕೈಗಾರಿಕಾ ಸಂಶೋಧಕರು ಬಳಸುತ್ತಿದ್ದು, ಡೀಪ್-ಟ್ರೇಸ್ (Deep trace) ಎಂಬ ಎಐ (AI)ಸಂಸ್ಥೆ ಈ ತಂತ್ರಜ್ಞಾನದ ನಿರ್ಮಾತೃಗಳು ಎಂದು ಗುರುತಿಸಿಕೊಂಡಿದ್ದಾರೆ.
‘ಡೀಪ್-ಫೇಕ್’ ರಚನೆಗಳನ್ನು ಸೃಷ್ಟಿಸಲು ಪ್ಲೇ-ಸ್ಟೋರ್, ಆ್ಯಪ್-ಸ್ಟೋರ್ಗಳಲ್ಲಿ ಬಹಳಷ್ಟು ಆ್ಯಪ್ಗಳು ಮತ್ತು ಆನ್ಲೈನ್ನಲ್ಲಿ ಸಾಕಷ್ಟು ವೆಬ್ಸೈಟ್ಗಳು ಕಾಣಸಿಗುತ್ತವೆ. ನೈಜ ಫೋಟೋಗಳು, ವಿಡಿಯೋಗಳನ್ನು ಅಪ್ಲೋಡ್ ಮಾಡಿ, ‘ಎನ್ಕೋಡರ್’ ಮತ್ತು ‘ಡಿಕೋಡರ್’ ನೆರವಿನಿಂದ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯು ಅಂತಹ ಚಿತ್ರ/ವಿಡಿಯೋಗಳನ್ನು ವಿಶ್ಲೇಷಿಸಿ, ನಕಲಿಯನ್ನು ಸೃಷ್ಟಿಸಬಹುದು. ಕೆಲವು ಸೆಕಂಡುಗಳ ವಿಡಿಯೋ ಉಚಿತವಾಗಿ ಮಾಡಲು ಈ ಆ್ಯಪ್ಗಳು ಸಹಾಯಕಾರಿಯಾಗಿವೆ. ಆದರೆ ವಾಣಿಜ್ಯ ಉದ್ದೇಶಗಳಿಗೆ ಬಳಸುವಂತಹವರು ‘ಪಾವತಿಸಿದ ಅಪ್ಲಿಕೇಶನ್’ / ಆ್ಯಪ್ಗಳನ್ನು ಖರೀದಿಸಬೇಕಿದೆ.
ತಂತ್ರಜ್ಞಾನದ ದುರ್ಬಳಕೆ
ಕಲೆ ಮತ್ತು ಮನರಂಜನೆಯ ಉದ್ದೇಶದೊಂದಿಗೆ ತಯಾರಾಗುವ ಗಾಢ-ನಕಲುಗಳು ಮೂಲರೂಪದಂತೆಯೆ ನೋಡುಗರನ್ನು ಭ್ರಮೆಗೆ ತಳ್ಳುವ ವೈಶಿಷ್ಟ್ಯವನ್ನು ಹೊಂದಿವೆ. ಆದರೆ ಮೂಲ-ಉದ್ದೇಶದ ಹೊರತಾಗಿ ಇಂಥ ರೂಪಾಂತರಿ ಚಿತ್ರ/ವಿಡಿಯೋಗಳನ್ನು ಉದ್ದೇಶಪೂರ್ವಕವಾಗಿ ಸುಳ್ಳು ಮಾಹಿತಿ ಹರಡುವ ಪ್ರಕರಣಗಳಲ್ಲಿ ಪ್ರಯೋಗಿಸುತ್ತಿರುವುದು ಕಂಡುಬರುತ್ತಿರವುದು ವಿಷಾದನೀಯ. ಇತ್ತೀಚೆಗೆ ಇಂತಹ ಪ್ರಕರಣಗಳು ವಿಶ್ವದಾದ್ಯಂತ ಹೆಚ್ಚಾಗುತ್ತಿದ್ದು, ಅವುಗಳ ಬಳಕೆಯ ಹಿಂದೆ ದುರುದ್ದೇಶಗಳಿರುವ ಅಂಶಗಳೂ ಬಯಲಾಗತೊಡಗಿವೆ. ಮುಗ್ಧರಿಗೆ ಕಿರುಕುಳ ನೀಡಲು, ಬೆದರಿಸಲು, ಕೀಳುಮಟ್ಟದಲ್ಲಿ ತೋರಿಸಲು ಅಥವಾ ಇತರರ ಮನೋಬಲವನ್ನು ದುರ್ಬಲಗೊಳಿಸಲು ‘ಡೀಪ್-ಫೇಕ್’ ತಂತ್ರಗಳ ಚಿತ್ರ/ವಿಡಿಯೋಗಳನ್ನು ವಿನ್ಯಾಸಗೊಳಿಸಿ ವಿಕೃತಿ ಮೆರೆಯುವ ಘಟನೆಗಳು ಹೆಚ್ಚಾಗುತ್ತಿವೆ. ಅಪರಾಧ ಜಗತ್ತಿನಲ್ಲಿ ಅವುಗಳ ಬಳಕೆ ನಿಯಂತ್ರಣಗೊಳ್ಳದಿದ್ದರೆ ಅಪಾಯಕಾರಿಯೂ ಹೌದು. ಮನರಂಜನೆ ಮತ್ತು ವಿಡಂಬನಾತ್ಮಕ ವಿಷಯಗಳಿಗಾಗಿ ಹುಟ್ಟಿಕೊಂಡ ಡೀಪ್-ಫೇಕ್, ಈಗ ತಪ್ಪು ಮಾಹಿತಿ, ಚಾರಿತ್ರ್ಯಹರಣ, ರಾಜಕೀಯ ಅಪಪ್ರಚಾರ, ಬ್ಲ್ಯಾಕ್ಮೇಲ್ ಮೊದಲಾದವಕ್ಕೆ ದುರ್ಬಳಕೆಯಾಗುತ್ತಿದೆ. ಅದು ಪ್ರಮುಖ ವಿಷಯಗಳ ಬಗ್ಗೆ ತಪ್ಪು ಮಾಹಿತಿ ಮತ್ತು ಗೊಂದಲವನ್ನು ಸೃಷ್ಟಿಸುತ್ತಿವೆ. ಅಲ್ಲದೆ, ಈ ತಂತ್ರಜ್ಞಾನವು ಸೇಡು, ಅಶ್ಲೀಲತೆ, ಮತ್ತಿತರ ಅನೈತಿಕ ಕ್ರಿಯೆಗಳಿಗೆ ಉತ್ತೇಜನ ನೀಡುತ್ತಿರುವ ಆರೋಪಗಳೂ ಇದ್ದು, ಮಹಿಳೆಯರ ಮಾನಹಾನಿ ಮಾಡುವ ಸುದ್ದಿಗಳು ಕೇಳಿಬರುತ್ತಿವೆ.
ನಕಲು ತಂತ್ರದ ಹೊಸ ಸಾಮರ್ಥ್ಯವನ್ನು ಮನುಷ್ಯ ಅತ್ಯಂತ ಅಪಾಯಕಾರಿ ಹಂತಕ್ಕೆ ತಂದು ನಿಲ್ಲಿಸತೊಡಗಿದ್ದಾನೆ. ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ (ಎಐ) ಅನ್ವೇಷಣೆಯಾದ ಈ ಕಾಲಘಟ್ಟದಲ್ಲಂತೂ ‘ಡೀಪ್-ಫೇಕ್’ ಒಂದು ಉನ್ಮಾದಕಾರಿ ಆಟವಾಗಿ ಪರಿವರ್ತಿತವಾಗುತ್ತಿದೆ.
ತಪ್ಪು ಮಾಹಿತಿ ಹರಡುವಿಕೆ
‘ಗಾಢ ನಕಲು’ ತಂತ್ರಜ್ಞಾನವು ರಾಜಕಾರಣದಲ್ಲಿರುವ ವ್ಯಕ್ತಿಗಳು ವಿವಾದಾತ್ಮಕ ಹೇಳಿಕೆಗಳನ್ನು ನೀಡಿರುವಂತೆ ಅಥವಾ ಸಂಶಯಾತ್ಮಕ ನಡವಳಿಕೆಯಲ್ಲಿ ತೊಡಗಿರುವಂತೆ ತೋರಿಸಲು ಸಹಾಯಕಾರಿಯಾಗಿದೆ. ಇಂತಹ ವಿಡಿಯೋಗಳನ್ನು ‘ವಾಟ್ಸ್ಯಾಪ್’ ಗುಂಪುಗಳ ಮೂಲಕ ಸಂಬಂಧಪಟ್ಟ ಕ್ಷೇತ್ರಗಳ ಮತದಾರರಲ್ಲಿ ಹಂಚಿಕೊಳ್ಳಲಾಗುತ್ತದೆ ಎಂಬ ವರದಿಯಿದೆ. ಸ್ಥಳೀಯ ಮಟ್ಟದಲ್ಲಿ ತಪ್ಪು ಮಾಹಿತಿ ಹರಡಲು, ಜನರನ್ನು ‘ಮೈಕ್ರೋ-ಟಾರ್ಗೆಟಿಂಗ್’ ಮಾಡಲು ಗುಂಪುಗಳನ್ನು ರಚಿಸಲಾಗುತ್ತದೆ ಅಥವಾ ಗುಂಪುಗಳನ್ನು ಸ್ಥಳೀಯ ಪ್ರಭಾವಿಗಳಿಂದ ಖರೀದಿಸಲಾಗುತ್ತದೆ. ಒಂದೇ ಕ್ಷೇತ್ರದಿಂದ ನೂರಾರು ಸದಸ್ಯರನ್ನು ಹೊಂದಿರುವ ಗುಂಪಿನ ಮೇಲೆ ನಿರ್ವಾಹಕರುಗಳು ನಿಯಂತ್ರಣ ಸಾಧಿಸಲು, ಚುನಾವಣೆಯಲ್ಲಿ ಹೆಚ್ಚಿನ ಮತ ಪಡೆಯಲು ನಕಲು ಚಿತ್ರ/ವಿಡಿಯೋಗಳನ್ನು ಹಂಚಲು ಪಯತ್ನಿಸುತ್ತಾರೆಂದು ವರದಿಗಳಿವೆ. ತಪ್ಪು ಮಾಹಿತಿ ಮತ್ತು ರಾಜಕೀಯ ಪ್ರಚಾರದ ಉದ್ದೇಶಕ್ಕಾಗಿ ನಿರ್ದಿಷ್ಟವಾಗಿ ರಚಿಸಲಾದ ಗುಂಪುಗಳನ್ನು ಚುನಾವಣಾ ಪ್ರಚಾರ ವಲಯಗಳಲ್ಲಿ ‘ಸ್ಕ್ಯ್ರಾಚ್ ಗುಂಪುಗಳು’ ಎಂದು ಕರೆಯಲಾಗುತ್ತದೆ.
ದುರ್ಬಳಕೆಯಾಗಬಹುದಾದ ಕ್ಷೇತ್ರಗಳು
ತಪ್ಪು ಮಾಹಿತಿ: ಸಾರ್ವಜನಿಕ ವ್ಯಕ್ತಿಗಳು, ರಾಜಕಾರಣಿಗಳು ಅಥವಾ ಇತರ ಪ್ರಭಾವಿ ವ್ಯಕ್ತಿಗಳ ನಕಲಿ ವಿಡಿಯೋಗಳು ಅಥವಾ ಆಡಿಯೋ ರಚಿಸಲು ಗಾಢನಕಲನ್ನು ಬಳಸಬಹುದು. ಸುಳ್ಳು ಮಾಹಿತಿಯ ಹರಡುವಿಕೆ, ಸಾರ್ವಜನಿಕ ಅಭಿಪ್ರಾಯ ಬದಲಿಸುವಿಕೆ, ಸಮಾಜದ ಗಣ್ಯರ ಮಾನಹಾನಿ ಇತ್ಯಾದಿ ಉದ್ದೇಶಗಳು ಇವು ಒಳಗೊಂಡಿರುತ್ತವೆ.
ರಾಜಕೀಯ ತಂತ್ರಗಳು: ರಾಜಕಾರಣಿಗಳು ತಾವು ಮಾಡದಿರುವ ಜನಪರ ಕಾರ್ಯಗಳನ್ನು ಕಾರ್ಯಗತ ಮಾಡಿರುವಂತೆ ತೋರಿಸುವ ವಿಡಿಯೋಗಳನ್ನು ರಚಿಸಲು ನಕಲು ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿಕೊಳ್ಳಬಹುದು. ಇದು ಚುನಾವಣೆಗಳ ಮೇಲೆ ಪ್ರಭಾವ ಬೀರುವ, ಅಪನಂಬಿಕೆಗಳನ್ನು ಬಿತ್ತುವ ಅಥವಾ ಸರ್ಕಾರಗಳನ್ನು ಅಸ್ಥಿರಗೊಳಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿರುತ್ತವೆ.
ವಂಚನೆ: ವ್ಯಕ್ತಿ ಅಥವಾ ಸಂಸ್ಥೆಯನ್ನು ಮೋಸಗೊಳಿಸುವ ಸಲುವಾಗಿ ನಕಲಿ ವಿಡಿಯೋ ಅಥವಾ ಆಡಿಯೋ ರೆಕಾರ್ಡಿಂಗುಗಳನ್ನು ರಚಿಸಿ ಮೋಸಗೊಳಿಸುವ ಉದ್ದೇಶಗಳಿಗೆ ಈ ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಬಹುದು.
ಖಿನ್ನತೆ ಮತ್ತು ಮಾನಸಿಕ ಪರಿಣಾಮಗಳು: ಡೀಪ್-ಫೇಕ್ ನಿರ್ಮಿತ ಚಿತ್ರ/ವಿಡಿಯೋ/ ಆಡಿಯೋಗಳು ವ್ಯಕ್ತಿಗಳ ಘನತೆಗೆ ಹಾನಿಕರವಾಗುವ ಉದ್ದೇಶದಿಂದ ಕೂಡಿದ್ದಲ್ಲಿ ಆ ವ್ಯಕ್ತಿ ಆತಂಕಕ್ಕೆ ಒಳಗಾಗುವ, ಭಾವನಾತ್ಮಕವಾಗಿ ಕುಗ್ಗುವ, ಮಾನಸಿಕ ಖಿನ್ನತೆಯಲ್ಲಿ ಬಳಲುವ ಸಂಭವಗಳು ಹೆಚ್ಚಾಗುತ್ತವೆ.
ಭದ್ರತಾ ಬೆದರಿಕೆಗಳು: ನಕಲಿ ವಿಡಿಯೋ/ಆಡಿಯೋಗಳು ರಾಷ್ಟ್ರ-ರಾಷ್ಟ್ರಗಳ ನಡುವೆ ಅಪಪ್ರಚಾರ ಮತ್ತು ಸಂಘರ್ಷದ ಉದ್ದೇಶದೊಂದಿಗೆ, ಉದ್ವಿಗ್ನತೆಯನ್ನು ಹೆಚ್ಚಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿರುತ್ತವೆ.
ಅಹಿತಕರ ಘಟನೆಗಳು
ದಿನಪತ್ರಿಕೆಯೊಂದರ ವರದಿಯ ಪ್ರಕಾರ (ನವೆಂಬರ್ ೩೦, ೨೦೨೩) ಉತ್ತರ ಪ್ರದೇಶದ ನಿವೃತ್ತ ಐಪಿಎಸ್ ಅಧಿಕಾರಿಯ ಮುಖ ಮತ್ತು ಧ್ವನಿಯನ್ನು ಹೋಲುವ ವಿಡಿಯೋವನ್ನು ತಯಾರಿಸಿ ಅದರ ಸಹಾಯದಿಂದ ಆ ಅಧಿಕಾರಿಗೆ ಬೆದರಿಸಿ ಹಣ ಸುಲಿಗೆ ಮಾಡಲಾಗಿದೆ. ಆ ಹಿರಿಯರು ಪದೇಪದೇ ಹಣ ಪಾವತಿಸಿದ್ದಲ್ಲದೆ, ಮಾನಸಿಕ ಹಿಂಸೆಯನ್ನು ಅನುಭವಿಸಿ, ಮಾನಹಾನಿಯ ಭಯದಿಂದ ಕೊನೆಗೆ ಆತ್ಮಹತ್ಯೆಗೆ ಶರಣಾದರು. ಲೈಂಗಿಕ ಆಸಕ್ತಿ ತೋರಿಸುತ್ತಿರುವಂತೆ ಅಪರಾಧಿಗಳು ಆ ಅಧಿಕಾರಿಯ ವಿಡಿಯೋ ತಯಾರಿಸಿದ್ದರು. ಪೊಲೀಸರು ತನ್ನ ವಿರುದ್ಧ ಕ್ರಮ ತೆಗೆದುಕೊಳ್ಳಬಹುದೆನ್ನುವ ಭಯದಿಂದ ಆತ್ಮಹತ್ಯೆ ಮಾಡಿಕೊಂಡ ಈ ಘಟನೆ ನಿಜಕ್ಕೂ ದುರದೃಷ್ಟಕರ. ‘ಡೀಪ್-ಫೇಕ್’ ಬಗೆಗೆ ಅರಿವಿಲ್ಲದವರಿಗೆ ಇಂತಹ ಅಪಾಯಗಳು ಎದುರಾಗುತ್ತಿವೆ.
ಕಳೆದ ವರ್ಷ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಎಂಬ ಚಲನಚಿತ್ರ ನಟಿಯ ವಿಡಿಯೋ ಹೆಚ್ಚು ಸುದ್ದಿ ಮಾಡಿತು. ಅದೇ ರೀತಿ ಅನೇಕ ನಟ-ನಟಿಯರ ಸಹಸ್ರಾರು ಆಳ-ನಕಲು ವಿಡಿಯೋಗಳು ಅಂತರ್ಜಾಲ ಜಗತ್ತನ್ನು ಪ್ರವೇಶಿಸಿದವು ಎಂದು ‘ಎಐ’ ವಿಶ್ಲೇಷಕರು ತಿಳಿಸಿದ್ದಾರೆ. ಈ ಪೈಕಿ ಶೇ.೨೭ರಷ್ಟು ವಿಡಿಯೋಗಳಿಗೆ ಜನಪ್ರಿಯ ವ್ಯಕ್ತಿಗಳ ಮುಖಗಳನ್ನು ಬಳಸಲಾಗಿದ್ದರೆ, ಉಳಿದಂತೆ ಶ್ರೀಸಾಮಾನ್ಯರ ಮುಖ ರಚನೆಗಳು ದುರ್ಬಳಕೆಯಾಗಿವೆ. ಅಷ್ಟೇ ಅಲ್ಲದೆ, ‘ಎಐ’ ರಚಿಸಿದ ಅಶ್ಲೀಲ ಚಿತ್ರ ಅಪ್ಲೋಡ್ ಮಾಡುವ ವೆಬ್ಸೈಟ್ಗಳಲ್ಲಿ ನಕಲಿಚಿತ್ರಗಳ ಸಂಖ್ಯೆಯು ಅತಿ ಹೆಚ್ಚಾಗಿರುವ ಆತಂಕಕಾರಿ ವಿಷಯ ವಿಶ್ಲೇಷಕರು ಹೊರಗೆಡವಿದ್ದಾರೆ.
ಉಕ್ರೇನಿನ ಅಧ್ಯಕ್ಷ ವೊಲೊಡಿಮಿರ್ ಜೆಲೆನ್ಸ್ಕಿ ಅವರು ಉಕ್ರೇನಿಗರಿಗೆ ತಮ್ಮ ಶಸ್ತ್ರಾಸ್ತ್ರಗಳನ್ನು ತ್ಯಜಿಸಲು ಮತ್ತು ಶರಣಾಗುವಂತೆ ಬೇಡಿಕೊಳ್ಳುತ್ತಿರುವ ಒಂದು ವಿಡಿಯೋ ಸಾಮಾಜಿಕ ಜಾಲತಾಣದಲ್ಲಿ ಈ ಹಿಂದೆ ಹರಿದಾಡಿ ದೊಡ್ಡ ಸುದ್ದಿ ಮಾಡಿತು. ಅದು ಪರಿಣಾಮ ಬೀರುವ ಮೊದಲೇ ವಿಡಿಯೋ ಗಾಢ ನಕಲು ಎಂಬ ಸ್ಪಷ್ಟೀಕರಣ ಜನರನ್ನು ಮುಟ್ಟಿ ಆಗಲಿದ್ದ ಅಪಾಯ ತಡೆಯಲಾಯಿತು. ಈ ರೀತಿ ಯುದ್ಧಸಮಯಗಳಲ್ಲಿ ನಕಲು ವಿಡಿಯೋ/ಆಡಿಯೋ ತಪ್ಪು ಸಂದೇಶಗಳನ್ನು ಹರಡಿ, ದೇಶವೊಂದನ್ನು ಅಪಾಯದ ಅಂಚಿಗೆ ತಳ್ಳುವ ಸಾಧ್ಯತೆಗಳನ್ನು ಅಲ್ಲಗಳೆಯುವಂತಿಲ್ಲ.
ಕಳೆದ ವರ್ಷ ಅಮೆರಿಕ ದೇಶದ ಉಪಾಧ್ಯಕ್ಷೆ ಕಮಲಾ ಹ್ಯಾರಿಸ್ ಅವರು ಅಸಂಬದ್ಧವಾಗಿ ಮಾತನಾಡುತ್ತಿರುವಂತೆ ತೋರುವ ನಕಲು ವಿಡಿಯೋ ಸಾಮಾಜಿಕ ಮಾಧ್ಯಮದಲ್ಲಿ ಹೆಚ್ಚು ಸುದ್ದಿ ಮಾಡಿತು. ಅದೇ ರೀತಿಯಲ್ಲಿ ಡೊನಾಲ್ಡ್ ಟ್ರಂಪ್ ಅವರನ್ನು ಕುಹಕವಾಡುವ ನಕಲು ವಿಡಿಯೋಗಳನ್ನು ಜನರು ವೀಕ್ಷಿಸಬೇಕಾಯಿತು. ಇತ್ತೀಚೆಗೆ ಅನೇಕ ದೇಶಗಳಲ್ಲಿ ಇಂಥ ಸುದ್ದಿಗಳು ಹೆಚ್ಚಾಗುತ್ತಿರುವುದು ಸಹ ಗಂಭೀರ ಚಿಂತೆಯ ವಿಷಯವಾಗಿದೆ.
‘ಡೀಪ್-ಫೇಕ್’ ಆ್ಯಪ್ಗಳಿಂದಾದ ನಕಲಿ ಸೃಷ್ಟಿಗಳಲ್ಲಿ ಪ್ರಧಾನಿ ನರೇಂದ್ರ ಮೋದಿ ಮತ್ತು ರಕ್ಷಣಾ ಸಚಿವ ರಾಜನಾಥಸಿಂಗ್ ಒಟ್ಟಿಗೆ ಕುಳಿತು ಗಾಯನದಲ್ಲಿ ಭಾಗಿಯಾದಂತೆ ತೋರಿಸಿದ್ದಾರೆ. ಡೊನಾಲ್ಡ್ ಟ್ರಂಪ್, ಬರಾಕ್ ಒಬಾಮಾ ಕೈ ಕೈ ಹಿಡಿದು ನೃತ್ಯ ಮಾಡಿರುವಂತೆ ಚಿತ್ರಿಸಿದ್ದಾರೆ. ಪ್ರಸಿದ್ಧ ನಟಿಯೊಬ್ಬರ ಮುಖಕ್ಕೆ ಬೇರೊಬ್ಬರ ದೇಹ ಜೋಡಿಸಿ ವಿವಾದ ಸೃಷ್ಟಿಸಿದ್ದಾರೆ. ಯೋಗಿ ಆದಿತ್ಯನಾಥ್, ನರೇಂದ್ರ ಮೋದಿ, ರಾಹುಲ್ಗಾಂಧಿ ಒಳಗೊಂಡ ನಕಲು ವಿಡಿಯೋಗಳು, ಚಲನಚಿತ್ರ ನಟ ಅಮೀರ್ಖಾನ್, ರಣಬೀರ್ ಕಪೂರ್ ಪ್ರಧಾನಿಯನ್ನು ಟೀಕಿಸುವ ವಿಡಿಯೋಗಳು ಸಾಮಾಜಿಕ ಜಾಲತಾಣಗಳಲ್ಲಿ ಹರಿದಾಡಿವೆ.
ಚುನಾವಣಾ ಸಮಯದಲ್ಲಿ ಮಂತ್ರಿಯೊಬ್ಬರು ವಿರೋಧಪಕ್ಷದ ಅಭ್ಯರ್ಥಿಯೊಬ್ಬನಿಗೆ ಮತ ಚಲಾಯಿಸಿ ಎಂದು ಕೇಳುತ್ತಿರುವ ‘ಡೀಪ್-ಫೇಕ್’ ವಿಡಿಯೋ ಲಕ್ಷಾಂತರ ಮತದಾರರ ಸ್ಮಾರ್ಟ್-ಫೋನುಗಳಲ್ಲಿ ಹರಿದಾಡಿತು. ಅದರಿಂದ ಮತದಾರರಲ್ಲಿ ಗೊಂದಲ ಸೃಷ್ಟಿಯಾಯಿತು.
ಜನಪ್ರಿಯ ಟಿವಿ ಶೋ ‘ಕೌನ್ ಬನೇಗಾ ಕರೋಡ್ಪತಿ’ಯ ಕ್ಲಿಪ್ಪಿಂಗ್ಗಳನ್ನು ಬಳಸಿದ ವಿಡಿಯೋಗಳ ಪ್ರಶ್ನೋತ್ತರ ಕಾರ್ಯಕ್ರಮದಲ್ಲಿ ಆಡಳಿತ ವಿರೋಧಿ ಭಾವನೆಗಳನ್ನು ಹುಟ್ಟುಹಾಕುವ ಪ್ರಯತ್ನವನ್ನೂ ಮಧ್ಯಪ್ರದೇಶ ರಾಜ್ಯದಲ್ಲಿ ಮಾಡಲಾಯಿತು.
ಇತ್ತೀಚೆಗೆ ಚಿತ್ರನಟಿಯೊಬ್ಬರ ನಕಲಿ ವಿಡಿಯೋ ವೈರಲ್ ಆದ ನಂತರ ಗಾಢ ನಕಲುಗಳ ಬಗೆಗೆ ಬಹಳಷ್ಟು ಚರ್ಚೆಗಳಾಗುತ್ತಿವೆ. ಕೇಂದ್ರ ಐಟಿ ಸಚಿವ ಅಶ್ವಿನಿ ವೈಷ್ಣವ್ ಅವರು ‘ಡೀಪ್-ಫೇಕ್’ಗಳನ್ನು ‘ಪ್ರಜಾಪ್ರಭುತ್ವಕ್ಕೆ ಬೆದರಿಕೆ’ ಎಂದು ಕರೆದರು. ಪ್ರಧಾನಿ ನರೇಂದ್ರ ಮೋದಿ ಕೂಡ ಈ ತಂತ್ರಜ್ಞಾನದ ಅಪಾಯದ ಬಗ್ಗೆ ಕಳವಳ ವ್ಯಕ್ತಪಡಿಸಿದ್ದಾರೆ.
ಭಾರತದಾದ್ಯಂತ ರಾಜಕೀಯ ಪಕ್ಷಗಳು ಖಾಸಗಿವಲಯದ ಪ್ರಚಾರ ಏಜೆನ್ಸಿಗಳನ್ನು ಬಳಸಿಕೊಳ್ಳುತ್ತಿವೆ, ಅವುಗಳ ಕೆಲಸವೇನೆಂದರೆ ತಮ್ಮ ಗ್ರಾಹಕರ ಚುನಾವಣಾ ಭವಿಷ್ಯವನ್ನು ಉಜ್ಜ್ವಲಗೊಳಿಸುವುದು. ಇತ್ತೀಚೆಗೆ ಅನೇಕ ಪ್ರಚಾರಕ ಏಜೆನ್ಸಿಗಳು ನಕಲಿ ವಿಡಿಯೋಗಳ ತಯಾರಿಕೆ ಮತ್ತು ಪ್ರಸಾರದ ಬಗೆಗೆ ಹೆಚ್ಚಿನ ಒಲವು ಬೆಳೆಸಿಕೊಳ್ಳುತ್ತಿರುವುದು ಕಂಡುಬರುತ್ತಿದೆ.
ರಾಷ್ಟ್ರಪತಿ ಮತ್ತು ಪ್ರಧಾನಿಯವರ ಅಭಿಪ್ರಾಯಗಳು
ಚುನಾವಣಾ ಪ್ರಚಾರಕರು ನಿಯೋಜಿಸುವ ‘ಡೀಪ್-ಫೇಕ್’ ವಿಡಿಯೋಗಳಲ್ಲಿ ಎರಡು ಪ್ರಮುಖ ವರ್ಗಗಳಿವೆ. ೧) ಒಬ್ಬ ಅಭ್ಯರ್ಥಿಯ ಸುತ್ತ ಸಕಾರಾತ್ಮಕ ಭಾವನೆಯನ್ನು ಮೂಡಿಸುವ ಗುರಿಯನ್ನು ಹೊಂದಿರುವುದು.
೨) ಎದುರಾಳಿ ಅಭ್ಯರ್ಥಿಗಳ ಬಗ್ಗೆ ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಹರಡುವ ಉದ್ದೇಶ ಹೊಂದಿರುವುದು. ಕಳೆದ ಲೋಕಸಭಾ ಚುನಾವಣೆಯಲ್ಲಿ ಬಹಳಷ್ಟು ರಾಜಕೀಯ ಪಕ್ಷಗಳು ಈ ತಂತ್ರಜ್ಞಾನ ಬಳಸಿ ಮತದಾರರನ್ನು ಸೆಳೆಯಲು ಪ್ರಯತ್ನಿಸಿದ್ದು ಸುಳ್ಳಲ್ಲ.
ಭಾರತದ ರಾಷ್ಟ್ರಪತಿಯವರು ಕೆಲವು ತಿಂಗಳ ಹಿಂದಷ್ಟೆ ಅಧಿಕಾರಿಗಳ ಸಭೆಯೊಂದರಲ್ಲಿ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯಿಂದ ರಚನೆಯಾಗುವ ‘ಡೀಪ್-ಫೇಕ್’ ಚಿತ್ರ ಮತ್ತು ವಿಡಿಯೋಗಳು ಅಪರಾಧಗಳಿಗೆ ದುರುಪಯೋಗವಾಗುತ್ತಿದ್ದು, ಅಧಿಕಾರಿಗಳು ಈ ನಿಟ್ಟಿನಲ್ಲಿ ಎದುರಾಗುತ್ತಿರುವ ಸವಾಲುಗಳನ್ನು ಎದುರಿಸಿ ಅಂತಹ ಚಟುವಟಿಕೆಗಳನ್ನು ಹತ್ತಿಕ್ಕಲು ಪ್ರಯತ್ನಿಸಬೇಕೆಂದು ನುಡಿದರು.
ಆಡಳಿತ ಪಕ್ಷವನ್ನು ನೇರವಾಗಿ ಎದುರಿಸಲು ಸಾಧ್ಯವಾಗದ ಪಕ್ಷಗಳು ಈಗ ವಿರೋಧದ ತಂತ್ರವಾಗಿ ಡಿಜಿಟಲ್ ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಆಶ್ರಯಿಸುತ್ತಿರುವ ಬಗೆಗೆ ಇತ್ತೀಚೆಗೆ ಪ್ರಧಾನಿ ಕಳವಳ ವ್ಯಕ್ತಪಡಿಸಿದ್ದರು. ಸಾಮಾಜಿಕ ಉದ್ವಿಗ್ನತೆಯನ್ನು ಸೃಷ್ಟಿಸಲು ನಕಲಿ ವಿಡಿಯೋಗಳನ್ನು ಬಳಸುತ್ತಿದ್ದಾರೆ ಎಂದು ಅವರು ಹೇಳಿದ್ದಾರೆ. ಕೇಂದ್ರ ಗೃಹಮಂತ್ರಿ ಅಮಿತ್ ಶಾ ಮತ್ತು ಇತರ ರಾಜಕೀಯ ಪಕ್ಷಗಳ ನಾಯಕರ ಇಲ್ಲದ ಸುಳ್ಳು ಹೇಳಿಕೆ ಮತ್ತು ತಪ್ಪು ಅಭಿಪ್ರಾಯ ಹುಟ್ಟುಹಾಕಲು ಅವರ ಧ್ವನಿಯನ್ನು ಅನುಕರಿಸುವ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (AI) ಬಳಸುತ್ತಿರುವುದು ನಿಜಕ್ಕೂ ಖೇದಕರ ಎಂಬ ಅಭಿಪ್ರಾಯವನ್ನು ಪ್ರಧಾನಿ ವ್ಯಕ್ತಪಡಿಸಿದರು. ಮಾಧ್ಯಮಗಳು ಈ ವಿಷಯದಲ್ಲಿ ಜನರಲ್ಲಿ ಜಾಗೃತಿ ಮೂಡಿಸಬೇಕೆಂದು ತಿಳಿಸಿದರು.
ಪ್ರಧಾನಿಯವರ ಈ ಹೇಳಿಕೆಯ ಹಿನ್ನೆಲೆಯ ಕಾರಣ ಕೇಂದ್ರ ಗೃಹಸಚಿವ ಅಮಿತ್ ಶಾ ಅವರನ್ನು ಗುರಿಯಾಗಿಸಿ, ಅವರಿಂದ ಕಪೋಲಕಲ್ಪಿತ ವಿಷಯ ಸೃಷ್ಟಿಸಿ, ಜಾತಿ ಮತ್ತು ಸಮುದಾಯಗಳಿಗೆ ಸಂಬಂಧಪಡುವ ಮೀಸಲಾತಿಯಂಥ ಸೂಕ್ಷ್ಮ ವಿಷಯಗಳ ಬಗೆಗೆ ಋಣಾತ್ಮಕ ಮಾತುಗಳನ್ನು ಆಡುವ ರೀತಿಯಲ್ಲಿ ಚಿತ್ರಿಸಿದ ನಕಲಿ ವಿಡಿಯೋವನ್ನು ಜಾಲತಾಣಗಳಲ್ಲಿ ಹರಡಲಾಯಿತು. ಜನರಲ್ಲಿ ಮೂಡಿದ ಸಂಶಯ ಪರಿಹರಿಸಲು ಪರಿಶಿಷ್ಟ ಜಾತಿಗಳು, ಪರಿಶಿಷ್ಟ ಪಂಗಡಗಳು ಅಥವಾ ಇತರ ಹಿಂದುಳಿದ ವರ್ಗಗಳಿಗೆ ಮೀಸಲಾತಿಯನ್ನು ಯಾವುದೇ ಕಾರಣಕ್ಕೂ ಕೊನೆಗೊಳಿಸುವುದಿಲ್ಲ ಎಂದು ಆಡಳಿತ ಪಕ್ಷವು ಹೇಳಿಕೆ ನೀಡಿ, ಅಪಪ್ರಚಾರವನ್ನು ಸಾರಾಸಗಟು ನಿರಾಕರಿಸಲಾಯಿತು. ಈ ರೀತಿ ‘ಗಾಢ ನಕಲು’ ತಪ್ಪು ಮಾಹಿತಿಗಳನ್ನು ಹರಡುತ್ತಿದ್ದು, ಅವು ವ್ಯಕ್ತಿಗಳಿಗೆ/ಸಂಸ್ಥೆಗಳಿಗೆ ಅಪಖ್ಯಾತಿ ತರುವ ಸಾಮರ್ಥ್ಯವನ್ನು ಹೊಂದಿವೆ.
‘ಗಾಢ ನಕಲು’ಗಳನ್ನು ಪತ್ತೆ ಹಚ್ಚುವ ಬಗೆ
ಗಾಢ ನಕಲು ರಚಿಸುವ ತಂತ್ರಜ್ಞಾನವು ಹೆಚ್ಚು ಆಧುನಿಕವಾಗುತ್ತಿರುವುದರಿಂದ ಅವುಗಳನ್ನು ಪತ್ತೆ ಹಚ್ಚುವುದು ಈಗ ಹೆಚ್ಚು ಕಷ್ಟಕರವಾಗುತ್ತಿದೆ. ೨೦೧೮ರಲ್ಲಿ, ಅಮೆರಿಕ ದೇಶದ ಸಂಶೋಧಕರು ‘ಡೀಪ್-ಫೇಕ್’ ಮುಖಗಳು ಮನುಷ್ಯರ ರೀತಿಯಲ್ಲಿ ಕಣ್ಣು ಮಿಟುಕಿಸುವುದಿಲ್ಲ ಎನ್ನುವುದನ್ನು ಪ್ರದರ್ಶಿಸಿ ತೋರಿಸಿದರು, ಇದು ಚಿತ್ರಗಳು ಮತ್ತು ವಿಡಿಯೊಗಳು ನಕಲಿಯೇ ಅಥವಾ ಅಲ್ಲವೇ ಎಂಬುದನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಉತ್ತಮ ಮಾರ್ಗವೆಂದು ಪರಿಗಣಿಸಲಾಗಿದೆ.
ಈಗಿನ ಮೊದಲ ಆದ್ಯತೆಯೆಂದರೆ, ಕೃತ್ರಿಮ ಚಿತ್ರ ಅಥವಾ ವಿಡಿಯೋವನ್ನು ಗುರುತಿಸುವ ಬಗೆ ಹೇಗೆ ಮತ್ತು ಜನಸಾಮಾನ್ಯರು ದಾರಿತಪ್ಪುವ ಅಥವಾ ಮೋಸಹೋಗುವ ಸಂಭವವನ್ನು ದೂರವಿಡುವ ಬಗೆ ಹೇಗೆ ಎನ್ನುವುದು.
ಕೆಲವು ಸಂಶೋಧಕರು ಗಾಢ ನಕಲುಗಳನ್ನು ಹೇಗೆ ಗುರುತಿಸಬಹುದು ಎಂಬುದರ ವಿವರಣೆ ಕೊಟ್ಟಿದ್ದಾರೆ. ಆದರೆ ಸಂಶೋಧಕರ ಈ ಅಧ್ಯಯನವು ಪ್ರಕಟವಾಗಿ ಜನರನ್ನು ತಲಪಿದ ಕೆಲವೇ ದಿನಗಳಲ್ಲಿ ನಕಲು ರಚನೆಯಲ್ಲಿ ತೊಡಗಿಕೊಂಡವರು ಸೂಕ್ಷ್ಮ ಲೋಪಗಳನ್ನು ಸರಿಪಡಿಸಲು ಪ್ರಾರಂಭಿಸಿ ಮತ್ತಷ್ಟು ‘ಸುಧಾರಿತ’ ಚಿತ್ರಗಳನ್ನು ತರತೊಡಗಿದರು! ಇದರಿಂದ ಗಾಢ ನಕಲು ವಿಡಿಯೋಗಳನ್ನು ಪತ್ತೆಹಚ್ಚುವುದು ಮತ್ತಷ್ಟು ಕಷ್ಟಕರವೆನಿಸಿತು.
ಗಾಢ ನಕಲು ತಂತ್ರಜ್ಞಾನವು ಹೆಚ್ಚು ಸಂಕೀರ್ಣವಾಗುತ್ತಿದ್ದಂತೆ ಅವುಗಳನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಕಷ್ಟವಾಗುತ್ತಿರುವುದು ಸತ್ಯ. ಸಂಪೂರ್ಣ ನೈಜವಾಗಿ ತೋರುವುದು ಗಾಢ ನಕಲಿಯ ಹೆಚ್ಚುಗಾರಿಕೆಯೇ ಸರಿ. ಆದರೆ, ಸೂಕ್ಷ್ಮವಾಗಿ ಗಮನಿಸಿದರೆ ಈ ವಿಡಿಯೋಗಳ ವಾಸ್ತವ ಮುಖವನ್ನು ಸುಲಭವಾಗಿ ಪತ್ತೆಹಚ್ಚಬಹುದು.
ಮೂಲ ಮತ್ತು ನಕಲಿ ವ್ಯತ್ಯಾಸಗಳಲ್ಲಿ ಕೆಲವು: ೧) ವಿಡಿಯೋಗಳನ್ನು ಎಚ್ಚರಿಕೆಯಿಂದ ವೀಕ್ಷಿಸಿದರೆ, ನೈಜ ವ್ಯಕ್ತಿಯ ಕೆನ್ನೆ ಮತ್ತು ಹಣೆ ರಚನೆಗೂ, ‘ಎಐ’ ಸೃಷ್ಟಿಸಿದ ನಕಲಿ ವ್ಯಕ್ತಿಯ ಕೆನ್ನೆ ಮತ್ತು ಹಣೆಯ ರಚನೆಗೂ ವ್ಯತ್ಯಾಸ ಕಂಡುಬರುತ್ತದೆ. ೨) ಹೆಚ್ಚಿನ ವಿಡಿಯೋಗಳಲ್ಲಿ ನಕಲಿ ಮುಖಗಳಲ್ಲಿ ಕಣ್ಣಿನ ರೆಪ್ಪೆ ಹೆಚ್ಚು ಮಿಟುಕಿಸುವುದು ಕಂಡುಬರುವುದಿಲ್ಲ. ಕಣ್ಣಿನ ಚಲನೆಗಳು ಮೂಲಕ್ಕಿಂತ ಸಾಕಷ್ಟು ಭಿನ್ನವಾಗಿರುತ್ತವೆ. ೩) ವಿಡಿಯೋದ ತುಟಿ ಭಾಗವನ್ನು ಸೂಕ್ಷ್ಮವಾಗಿ ಅವಲೋಕಿಸಿದರೆ, ತುಟಿ ಚಲನೆಯು ಆಡಿಯೋದೊಂದಿಗೆ ಹೊಂದಿಕೆಯಾಗದಿರುವುದಿಲ್ಲ. ೪) ವಿಡಿಯೋವನ್ನು ಹಿಗ್ಗಿಸಿದಾಗ, ‘ಝೂಮ್ಇನ್’ ಮಾಡಿದಾಗ, ಮೀಸೆ ಅಥವಾ ಗಡ್ಡಗಳು ನಕಲಿಯಾಗಿ ಹೊಂದಿಸಿರುವುದು ಸ್ಪಷ್ಟವಾಗಿ ಕಾಣುತ್ತದೆ. ಅದಕ್ಕೆ ಕಾರಣ, ಮುಖದ ಕೂದಲಿನ ವಿಚಾರದಲ್ಲಿ ‘ಎಐ’ ಸುಧಾರಣೆ ಕಾಣಬೇಕಿದೆ. ೫) ಅನೇಕ ವಿಡಿಯೋಗಳಲ್ಲಿ ಹಿನ್ನೆಲೆಯಲ್ಲಿ ಕಾಣುವ ಪರಿಸರ ಕೃತಕವಾಗಿ ಜೋಡಿಸಿದಂತೆ ಕಂಡುಬರುತ್ತದೆ. ೬) ಡೀಪ್-ಫೇಕ್ ವಿಡಿಯೋದ ಚಿತ್ರವನ್ನು ಗೂಗಲ್ ಮಾಡಿ ನೋಡಿದಾಗ ಅಲ್ಲಿರುವ ನೈಜ ಚಿತ್ರಗಳೊಂದಿಗೆ ತಾಳೆ ನೋಡುವ ಮೂಲಕವೂ ಸತ್ಯಾಸತ್ಯತೆ ಪರಿಶೀಲಿಸಬಹುದು.
ಸಾಮಾಜಿಕ ಮಾಧ್ಯಮ ಅಥವಾ ಇತರ ಆನ್ಲೈನ್ ಮೂಲಕ ತಪಾಸಣೆ (ಸ್ಕ್ರಾಲ್) ಮಾಡುವಾಗ ಇಂತಹ ನಕಲನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಸಹಾಯ ಮಾಡುವ ತಂತ್ರಜ್ಞಾನದ ಸಂಪನ್ಮೂಲಗಳು ಇತ್ತೀಚೆಗೆ ಹೆಚ್ಚು ಲಭ್ಯವಾಗುತ್ತಿರುವುದು ಸಮಾಧಾನಕರ ಅಂಶವಾಗಿದೆ. ಉದಾಹರಣೆಗೆ, ಮ್ಯಾಸಚೂಸೆಟ್ಸ್ ಇನ್ಸ್ಟಿಟ್ಯೂಟ್ ಆಫ್ ಟೆಕ್ನಾಲಜಿ (MIT) ಸಂಸ್ಥೆಯು ಸಣ್ಣ ವಿವರಗಳ ಮೂಲಕ ಕೃತ್ರಿಮತೆ ಪತ್ತೆಹಚ್ಚುವಿಕೆಯ ಜಾಲತಾಣ (Detect Fakes Website) ರಚಿಸಿದೆ. ಎಂ.ಐ.ಟಿ. ಹಲವಾರು ತಂತ್ರಜ್ಞಾನದ ವಿಷಯಗಳನ್ನು ಪ್ರಕಟಿಸಿದ್ದು, ಅದು ಯಾವುದೇ ಚಿತ್ರ/ವಿಡಿಯೋ ‘ಡೀಪ್-ಫೇಕ್’ ಎಂದು ಸಾಬೀತುಪಡಿಸುವ ಕ್ಷಮತೆ ಹೊಂದಿದೆ.
‘ಇಂಟೆಲ್’ ಸಂಸ್ಥೆಯು ಪ್ರತಿಶತ ೯೬ರಷ್ಟು ನಿಖರತೆಯೊಂದಿಗೆ ‘ಡೀಪ್-ಫೇಕ್’ ಅನ್ನು ಪತ್ತೆಹಚ್ಚುವ ತನ್ನ ಇತ್ತೀಚಿನ ತಂತ್ರಜ್ಞಾನವನ್ನು ಅನಾವರಣಗೊಳಿಸಿದೆ. ಇದರ ಸಹಾಯದಿಂದ ತಪ್ಪು ಮಾಹಿತಿಯ ಹರಡುವಿಕೆಯನ್ನು ತಡೆಗಟ್ಟಬಹುದು ಮತ್ತು ಸೈಬರ್ ಅಪರಾಧಗಳ ಉಪಟಳದಿಂದ ರಕ್ಷಿಸಿಕೊಳ್ಳಬಹುದಾಗಿದೆ.
ವಹಿಸಬೇಕಾದ ಎಚ್ಚರಿಕೆ
ನಾವು ‘ಡೀಪ್-ಫೇಕ್’ ಚಿತ್ರ/ವಿಡಿಯೋ ಇತ್ಯಾದಿ ಕಂಡಲ್ಲಿ, ತಕ್ಷಣ ಅದನ್ನು ಮತ್ತೊಬ್ಬರೊಡನೆ ಹಂಚಿಕೊಳ್ಳಬಾರದು. ನಕಲು ಹೇಗಿರುತ್ತದೆ ಎನ್ನುವುದನ್ನು ತೋರಿಸುವ ಸಲುವಾಗಿ ಇತರರಿಗೆ ಹಂಚಿಕೊಳ್ಳುವ ಉತ್ಸಾಹವು ಅನೇಕ ಬಾರಿ ತಪ್ಪಾಗಿ ರವಾನೆಯಾಗಿ ಹೆಚ್ಚಿನ ಅಪಾಯಕ್ಕೆ ದೂಡಬಹುದಾಗಿದೆ.
ನಕಲು ಚಿತ್ರಗಳಲ್ಲಿ ನಮ್ಮ ಮುಖಗಳೇ ಕಂಡಲ್ಲಿ, ಮಾಧ್ಯಮ ಮತ್ತು ಸಂಬಂಧಿತ ಕಾನೂನುಗಳ ಅನುಭವ ಹೊಂದಿರುವ ವಕೀಲರನ್ನು ತಕ್ಷಣವೇ ಸಂಪರ್ಕಿಸಬೇಕು. ಒಂದು ಚಿತ್ರ/ಫೋಟೋ ಅಥವಾ ವೀಡಿಯೋವನ್ನು ‘ಮೋಜಿಗಾಗಿ’ ಮಾಡಲಾಗಿದ್ದರೂ ಸಹ, ನಿಮ್ಮ ಗಮನಕ್ಕೆ ತರದೆ ಅಥವಾ ಅನುಮತಿಯಿಲ್ಲದೆ ಅದನ್ನು ಮಾಡಿದ್ದರೆ ಅದು ಕಾನೂನುಬಾಹಿರವಾಗಿರುತ್ತದೆ ಎನ್ನುವುದು ತಿಳಿದಿರುವುದು ಒಳಿತು.
ಅಪರಾಧ ಮತ್ತು ಕಾನೂನು
‘ಡೀಪ್-ಫೇಕ್’ ವಿಡಿಯೋ ಪ್ರಕರಣಗಳು ನೈತಿಕ ಮತ್ತು ಕಾನೂನಾತ್ಮಕ ಪ್ರಶ್ನೆಗಳನ್ನು ಹುಟ್ಟುಹಾಕಿವೆ. ಭಾರತೀಯ ಕಾನೂನುಗಳಲ್ಲಿ ಚಾರಿತ್ರ್ಯ ಹರಣ ಮಾಡುವ ನಕಲಿ ವಿಡಿಯೋಗಳನ್ನು ಸೃಷ್ಟಿಸುವುದು ಶಿಕ್ಷಾರ್ಹ ಅಪರಾಧವಾಗಿದ್ದು, ಅಪರಾಧಿಗಳಿಗೆ ಕಾನೂನಿನ ಪ್ರಕಾರ ಶಿಕ್ಷೆ ವಿಧಿಸಬಹುದಾಗಿದೆ.
೧) ಗುರುತಿನ ಕಳವು (Identification theft) ಮಾಡಿ ಅದನ್ನು ಅನ್ಯ ಉದ್ದೇಶಗಳಿಗೆ/ದುರುದ್ದೇಶಕ್ಕೆ ಬಳಸಿದರೆ ಅದಕ್ಕೆ ಮೂರು ವರ್ಷ ಜೈಲು, ಹನ್ನೊಂದು ಲಕ್ಷದವರೆಗೆ ದಂಡ ವಿಧಿಸಲಾಗುತ್ತದೆ. (ಮಾಹಿತಿ ತಂತ್ರಜ್ಞಾನ ಕಾಯಿದೆ ೨೦೦೦ ಸೆಕ್ಷನ್ ೬೬)
೨) ಖಾಸಗಿ ಹಕ್ಕು ಉಲ್ಲಂಘನೆ ಎಂದು ಪರಿಗಣಿಸಲಾಗುತ್ತದೆ ಮತ್ತು ಮೂರು ವರ್ಷ ಜೈಲು, ಎರಡು ಲಕ್ಷದವರೆಗೆ ದಂಡ ವಿಧಿಸಲಾಗುತ್ತದೆ. (ಐಟಿ ಕಾಯಿದೆ ಸೆಕ್ಷನ್ ೬೬ಇ)
೩) ವಿದ್ಯುನ್ಮಾನ ದೃಶ್ಯದ ರೂಪದಲ್ಲಿ ಅಶ್ಲೀಲತೆ ಪ್ರದರ್ಶನ ಮಾಡಿದಲ್ಲಿ ೩ ವರ್ಷ ಜೈಲು, ೩ ಲಕ್ಷದವರೆಗೆ ದಂಡ ವಿಧಿಸಬಹುದಾಗಿದೆ. (ಐಟಿ ಕಾಯಿದೆ ಸೆಕ್ಷನ್ ೬೭)
೪) ಭಾರತೀಯ ದಂಡ ಸಂಹಿತೆ ಸೆಕ್ಷನ್ ೧೫೩ಎ (ಧರ್ಮ, ಜಾತಿ ಮತ್ತಿತರ ಹೆಸರಿನಲ್ಲಿ ನಿಂದನೆ) ಮತ್ತು ೨೯೫ಎ (ಉದ್ದೇಶಪೂರ್ವಕವಾಗಿ ಅಪಮಾನಗೊಳಿಸುವುದು) ಅಡಿಯಲ್ಲಿ ಪ್ರಕರಣ ದಾಖಲಿಸಬಹುದಾಗಿದೆ.
೫) ‘ಕಾಪಿರೈಟ್’ ಕಾಯಿದೆ ೧೯೫೭ರ ಸೆಕ್ಷನ್ ೧೬ರ ಪ್ರಕಾರ ವಿಡಿಯೋ ದುರ್ಬಳಕೆ ಮಾಡಿಕೊಂಡರೆ ಮೂರು ವರ್ಷ ಜೈಲು, ಎರಡು ಲಕ್ಷ ದಂಡ ವಿಧಿಸಲಾಗುತ್ತದೆ.
ಒಂದು ಸಮೀಕ್ಷೆ
ಅಮೆರಿಕದ ಸಂಸ್ಥೆ (McAfee Software Corp) ಇತ್ತೀಚೆಗೆ ಮಾಡಿದ ಸಮೀಕ್ಷೆಯಲ್ಲಿ ಸಂದರ್ಶನ ಮಾಡಿದ ಭಾರತೀಯರಲ್ಲಿ ೭೫ ಪ್ರತಿಶತದಷ್ಟು ಮಂದಿ ಡೀಪ್-ಫೇಕ್ ಚಿತ್ರ/ವಿಡಿಯೋವನ್ನು ಕಂಡುಹಿಡಿಯುವಲ್ಲಿ ವಿಫಲರಾಗಿರುವುದಾಗಿ ಹೇಳಿದೆ. ಸುಮಾರು ೫೭ ಪ್ರತಿಶತದಷ್ಟು ಜನರು ನಕಲಿ ವಿಡಿಯೋ ಅಥವಾ ರೆಕಾರ್ಡಿಂಗ್ ಅನ್ನು ನಿಜವೆಂದು ಭಾವಿಸಿದ್ದಾರೆ; ೩೧ ಪ್ರತಿಶತದಷ್ಟು ಜನರು ಆನ್ಲೈನ್ ಹಗರಣಗಳ ದೆಸೆಯಿಂದ ಹಣ ಕಳೆದುಕೊಂಡಿದ್ದಾರೆ. ಸಮೀಕ್ಷೆ ನಡೆಸಿದವರಲ್ಲಿ ೮೦ ಪ್ರತಿಶತದಷ್ಟು ಜನರು ೨೦೨೩ರಲ್ಲಿದ್ದಕ್ಕಿಂತ ನಕಲುಗಳ ಬಗ್ಗೆ ಹೆಚ್ಚು ಆಸಕ್ತಿ ಮತ್ತು ಕಾಳಜಿ ವಹಿಸುತ್ತಿದ್ದಾರೆ ಎಂದು ತಿಳಿದುಬಂದಿದೆ.
ಆರೋಗ್ಯಕರ ಅಂಶಗಳು
ಎಲ್ಲ ‘ಡೀಪ್-ಫೇಕ್’ಗಳೂ ಕೆಟ್ಟ ಪರಿಣಾಮ ಬೀರುತ್ತಿವೆ ಎನ್ನುವ ಅಭಿಪ್ರಾಯವೂ ಸತ್ಯವಲ್ಲ. ಯಾವುದೇ ಹೊಸ ತಂತ್ರಜ್ಞಾನ ಆವಿಷ್ಕಾರವಾದಾಗ ಅದರೊಂದಿಗೆ ಧನಾತ್ಮಕ ಮತ್ತು ಋಣಾತ್ಮಕ ಎರಡೂ ಪರಿಣಾಮಗಳನ್ನು ಹರಡುತ್ತದೆ. ಆದರೆ ಆರೋಗ್ಯಕರ ಚಿಂತನೆಯ ದೃಷ್ಟಿಯಿಂದ ಭವಿಷ್ಯದಲ್ಲಿ ಗಾಢನಕಲುಗಳಿಂದ ಹಿತಕರ ಪರಿಣಾಮಗಳನ್ನೂ ನಿರೀಕ್ಷಿಸಬಹುದಾಗಿದೆ.
ಚಲನಚಿತ್ರಗಳು ಮತ್ತು ಮನರಂಜನೆಯ ಜೊತೆಗೆ, ನಕಲುಗಳು ಆರೋಗ್ಯರಕ್ಷಣೆಯ ಬಗೆಗೆ ಉಪಯೋಗಕಾರಿಯಾಗಿ ಬಳಸಲ್ಪಡುತ್ತಿವೆ. ಕೆಲವು ವರ್ಷಗಳ ಹಿಂದೆ ಎನ್ವಿಡಿಯಾ (NVIDIA), ಮೇಯೊ ಕ್ಲಿನಿಕ್ (Mayo) ಮುಂತಾದ ಕೆಲವು ಸಂಸ್ಥೆಗಳು ನಡೆಸಿದ ಅಧ್ಯಯನದಲ್ಲಿ, ಅಪರೂಪದ ಅಸಹಜ ಚಿತ್ರಗಳನ್ನು ಸಂಶ್ಲೇಷಿತ ಚಿತ್ರಗಳೊಂದಿಗೆ ಪೂರಕವಾಗಿ ಎಐ (AI) ರೋಗನಿರ್ಣಯದ ನಿಖರತೆಯನ್ನು ಸುಧಾರಿಸಲು ‘ಡೀಪ್-ಫೇಕ್’ ಅನ್ನು ಬಳಸಿದ್ದಾರೆ.
ಈ ಹೊಸ ತಂತ್ರಜ್ಞಾನದ ಸಹಾಯದಿಂದ ಔಷಧಗಳನ್ನು ಆವಿಷ್ಕಾರಗೊಳಿಸಿ, ಕ್ಲಿನಿಕಲ್ ಪ್ರಯೋಗಗಳ ಫಲಿತಾಂಶಗಳನ್ನು ‘ಎಐ’ ಚಿತ್ರ/ವಿಡಿಯೋಗಳ ಮೂಲಕ ಪರಿಚಯಿಸಿ ಮಾರುಕಟ್ಟೆಗೆ ಯಶಸ್ವಿಯಾಗಿ ತರಬಹುದಾಗಿದೆ. ಇದರಿಂದ ಸಮಯ ಮತ್ತು ವೆಚ್ಚಗಳು ಗಣನೀಯವಾಗಿ ಉಳಿಸಬಹುದು. ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (AI)ಯು ‘ಡೀಪ್-ಫೇಕ್’ ತಂತ್ರಜ್ಞಾನದ ಸಹಾಯದಿಂದ ರೋಗಗಳಿಗೆ ಚಿಕಿತ್ಸೆ ನೀಡುವ ಸಾಮರ್ಥ್ಯವಿರುವ ಹೊಸ ಅಣುಗಳನ್ನು ವಿನ್ಯಾಸಗೊಳಿಸುವಲ್ಲಿ ಉಪಯೋಗಕಾರಿಯಾಗಿದೆ.
ಈ ತಂತ್ರಜ್ಞಾನದಿಂದ ಐತಿಹಾಸಿಕ ಚಿತ್ರಗಳನ್ನು ‘ಆನಿಮೇಟ್’ ಮಾಡಬಹುದಾಗಿದೆ. ಪ್ರಸಿದ್ಧ/ಪ್ರಭಾವಿ ವ್ಯಕ್ತಿಗಳು ತರಗತಿಯಲ್ಲಿ ಇದ್ದು ಉಪನ್ಯಾಸ/ವಿಷಯ ಪ್ರಸ್ತುತಿ ಮಾಡುತ್ತಿರುವಂತೆ ಬಿಂಬಿಸಿ ಹೆಚ್ಚು ಸಂವಾದಾತ್ಮಕವೆನಿಸುವಂತೆ ಅಭಿವೃದ್ಧಿಪಡಿಸಬಹುದಾಗಿದೆ.
ಹೊಸ ವಿಧಾನಗಳ ಮೂಲಕ ಉದ್ಯೋಗಿಗಳಿಗೆ ಕಡಮೆ ವೆಚ್ಚದಲ್ಲಿ ದೃಶ್ಯರೂಪದಲ್ಲಿ ತರಬೇತಿ ಮತ್ತು ಶಿಕ್ಷಣ ನೀಡಿ ತಿಳಿವಳಿಕೆಯ ಮಟ್ಟವನ್ನು ಹೆಚ್ಚಿಸಬಹುದಾಗಿದೆ. ಕೇವಲ ಪಠ್ಯ ಆಧಾರಿತ ಸಂವಾದಗಳನ್ನು ಅವಲಂಬಿಸುವ ಬದಲು, ವ್ಯವಹಾರಗಳನ್ನು ಗ್ರಾಹಕರಿಗೆ ಅನುಗುಣವಾಗಿ ‘ಕಸ್ಟಮೈಸ್’ ಮಾಡಿದ ಗಾಢನಕಲು ವಿಡಿಯೋಗಳ ಮೂಲಕ ಗ್ರಾಹಕ ಸೇವೆಯನ್ನು ನೀಡಬಹುದು.
ಉತ್ಪನ್ನಗಳ ಮಾರ್ಕೆಟಿಂಗ್ ಮತ್ತು ಜಾಹೀರಾತುಗಳನ್ನು ಸರ್ಜನಾತ್ಮಕವಾಗಿ ಮತ್ತು ಕಡಮೆ ವೆಚ್ಚದ ಮೂಲಕ ಗ್ರಾಹಕರನ್ನು ಪರಿಣಾಮಕಾರಿಯಾಗಿ ತಲಪುವ ಅವಕಾಶಗಳಿವೆ.
ಈ ತಂತ್ರಜ್ಞಾನದ ಅಪಾಯಗಳನ್ನು ಪರಿಹರಿಸಲು ತಾಂತ್ರಿಕ ಸಲಹೆ, ಕಾನೂನು ಚೌಕಟ್ಟುಗಳು, ಸಾರ್ವಜನಿಕರಲ್ಲಿ ಅರಿವು ಮತ್ತು ನೈತಿಕ ಪ್ರಜ್ಞೆ ಮುಂತಾದ ಬಹುಮುಖ ವಿಧಾನಗಳ ಪರಿಹಾರಗಳ ಅಗತ್ಯವಿದೆ. ಗ್ರಾಹಕರು, ತಾಂತ್ರಿಕ ತಜ್ಞರು ಮತ್ತು ಕಾನೂನುಗಳ ನಡುವೆ ಸಹಯೋಗದ ಆವಶ್ಯಕತೆ ಇದೆ. ಈ ಹೊಸ ತಂತ್ರಜ್ಞಾನದ ವಿಕಸನದ ಸಾಮರ್ಥ್ಯಗಳು ಮತ್ತು ಅದರಿಂದ ಆಗಬಹುದಾದ ಸಂಭಾವ್ಯ ಸಾಮಾಜಿಕ ಪ್ರಭಾವ ದಾರಿ ತಪ್ಪದಂತೆ ನಿಯಂತ್ರಿಸುವುದು ಇಂದಿನ ಅಗತ್ಯವಾಗಿದೆ.