Root NationLidwoordAnalyticsZes geboden van kunstmatige intelligentie

Zes geboden van kunstmatige intelligentie

-

De volgende jaren zullen worden gekenmerkt door de snelle ontwikkeling van kunstmatige-intelligentietechnologieën. Misschien is het nodig om duidelijk gedefinieerde kaders te introduceren voor het creëren en gebruiken van AI? Is 6 maanden ervaring genoeg om een ​​technologie te reguleren die het lab nog niet eens heeft verlaten? Deze vraag komt steeds vaker uit de mond van experts en journalisten als het gaat om kunstmatige intelligentie. Er klinken steeds vaker stemmen en oproepen om maatregelen te nemen om kunstmatige intelligentie te reguleren - zowel op gebruikersniveau als op het niveau van projectontwikkeling. De geschiedenis van dergelijke oproepen begon vrij lang geleden.

De alomtegenwoordige aanwezigheid van kunstmatige intelligentie in de digitale ruimte en vooral van modellen die inhoud kunnen creëren die niet zal verschillen van die van mensen, roept heel andere emoties op. Enerzijds hebben we een groep enthousiastelingen die toekomst zien in AI en ondanks de relatief beperkte mogelijkheden (omdat AI niet nadenkt en vaak alleen maar informatie van internet haalt), niet bang zijn om er veel taken aan toe te vertrouwen . Aan de andere kant van de barricade staat een groep die haar scepsis en bezorgdheid uit over de huidige trends in de ontwikkeling van kunstmatige intelligentie.

AI postulaat

De brug tussen de twee groepen zijn onderzoekers op het gebied van kunstmatige intelligentie, die enerzijds tal van voorbeelden aanhalen van hoe kunstmatige intelligentie de omringende realiteit positief heeft beïnvloed. Tegelijkertijd begrijpen ze dat het te vroeg is om op hun lauweren te rusten, en een enorme technologische sprong brengt veel uitdagingen en grote verantwoordelijkheid met zich mee. Een duidelijk voorbeeld van deze houding is een internationale groep onderzoekers op het gebied van kunstmatige intelligentie en machine learning onder leiding van Dr. Ozlem Garibay van de University of Central Florida. De 47 pagina's tellende publicatie, geschreven door 26 wetenschappers van over de hele wereld, identificeert en beschrijft zes uitdagingen die onderzoeksinstellingen, bedrijven en bedrijven moeten aanpakken om hun modellen (en de software die ze gebruikt) te beveiligen.

Ja, dit is een serieus wetenschappelijk werk met belangrijke verklaringen voor het begrijpen van de toekomst van kunstmatige intelligentie. Wie geïnteresseerd is, kan zelfstandig lees dit wetenschappelijk rapport en trek je eigen conclusies. In eenvoudige bewoordingen hebben wetenschappers 6 geboden van kunstmatige intelligentie geïdentificeerd. Alle AI-ontwikkelingen en -acties moeten hieraan voldoen, zodat het veilig is voor mens en wereld.

AI postulaat

In mijn artikel, precies geschreven op basis van dit wetenschappelijke werk, zal ik proberen de belangrijkste postulaten te formuleren, wetten volgens welke kunstmatige intelligentie zou moeten bestaan ​​en zich zou moeten ontwikkelen. Ja, dit is mijn bijna vrije interpretatie van de conclusies van wetenschappers over de ontwikkeling van kunstmatige intelligentie en een poging om die als het ware in een bijbelse versie te presenteren. Maar zo wilde ik u kennis laten maken met dit wetenschappelijke werk van gerespecteerde wetenschappers.

Ook interessant: AI bouwen: wie leidt de race?

De eerste wet: menselijk welzijn

Het eerste postulaat van de onderzoekers is om het werk van kunstmatige intelligentie te richten op het menselijk welzijn. Door het ontbreken van "menselijke waarden, gezond verstand en ethiek" kan kunstmatige intelligentie handelen op een manier die zal leiden tot een aanzienlijke verslechtering van het menselijk welzijn. Problemen kunnen het gevolg zijn van de bovenmenselijke vermogens van AI (bijvoorbeeld hoe gemakkelijk AI mensen verslaat - en niet alleen bij schaken), maar ook het feit dat AI niet voor zichzelf denkt en daarom niet in staat is om vooroordelen of duidelijke fouten.

AI Postulaat

- Advertentie -

Onderzoekers merken op dat overmatig vertrouwen in kunstmatige-intelligentietechnologieën het welzijn van mensen negatief kan beïnvloeden. Een samenleving die weinig begrijpt van hoe kunstmatige-intelligentie-algoritmen werken, heeft de neiging haar te veel te vertrouwen, of heeft integendeel een negatieve houding ten opzichte van inhoud die wordt gegenereerd door een bepaald model, met name chatbots. Gezien deze en andere factoren roept het team van Garibay op om het menselijk welzijn centraal te stellen in toekomstige AI-menselijke interactie.

Lees ook: ChatGPT: een eenvoudige gebruikershandleiding

De tweede wet: Verantwoordelijkheid

Accountability is een term die steeds weer opduikt in de AI-wereld in de context van waar we machine learning voor gebruiken, en hoe AI-modellen en algoritmen precies worden ontwikkeld en getraind. Het internationale team benadrukt dat het ontwerpen, ontwikkelen en implementeren van kunstmatige intelligentie uitsluitend met goede bedoelingen moet gebeuren.

AI Postulaat

Naar hun mening moet verantwoordelijkheid niet alleen in een technische, maar ook in een juridische en ethische context worden bezien. Technologie moet niet alleen worden bekeken vanuit het oogpunt van effectiviteit, maar ook in de context van het gebruik ervan.

"Met de introductie van geavanceerde machine learning-technieken wordt het steeds belangrijker om te begrijpen hoe een beslissing tot stand is gekomen en wie daarvoor verantwoordelijk is” - schrijven de onderzoekers.

De derde wet: vertrouwelijkheid

Privacy is een onderwerp dat als een boemerang opduikt in elk discours over technologie. Vooral als alles op sociale netwerken wordt besproken. Dit is echter enorm belangrijk voor kunstmatige intelligentie omdat het niet bestaat zonder een database. En wat zijn databases?

Wetenschappers beschrijven ze als "een abstractie van de basisbouwstenen waaruit de manier bestaat waarop we de wereld zien". Deze blokken zijn meestal alledaagse waarden: kleuren, vormen, texturen, afstanden, tijd. Terwijl smalle AI gericht is op een enkel doel, zoals de mate waarin de sluiter opent bij een bepaalde lichtintensiteit, gebruik maakt van openbaar beschikbare objectieve data, maakt AI in bredere toepassingen (hier bijvoorbeeld tekst-naar-beeld-modellen zoals Midjourney, of taalmodellen zoals ChatGPT ) kunnen gegevens over en gemaakt door mensen gebruiken. Ook artikelen in de pers, boeken, illustraties en foto's die op internet zijn gepubliceerd, moeten worden vermeld. Algoritmen van kunstmatige intelligentie hebben toegang tot alles, omdat we het ze zelf hebben gegeven. Anders weet hij niets en geeft hij op geen enkele vraag antwoord.

AI Postulaat

Gebruikersgegevens hebben fundamentele gevolgen voor zowel de mensen over wie deze gegevens worden verzameld als de mensen in het systeem waar de kunstmatige intelligentie-algoritmen worden geïmplementeerd.

Daarom heeft de derde uitdaging betrekking op een breed begrip van privacy en het bieden van rechten als het recht om alleen te blijven, het recht om de toegang tot zichzelf te beperken, het recht op geheimhouding van iemands persoonlijke leven of bedrijf, het recht om persoonlijke informatie, dat wil zeggen het recht om iemands persoonlijkheid, individualiteit en waardigheid te beschermen. Dit alles moet in de algoritmen worden geschreven, anders bestaat er simpelweg geen privacy en kunnen AI-algoritmen zowel bij frauduleuze plannen als bij strafbare feiten worden gebruikt.

Lees ook: 7 coolste manieren om ChatGPT te gebruiken

Vierde wet: projectstructuur

Kunstmatige intelligentie kan uiterst eenvoudig en voor één doel zijn, maar in het geval van grotere modellen met een brede en multitasking-aard is het probleem niet alleen de gegevensprivacy, maar ook de ontwerpstructuur.

Zo heeft GPT-4, het nieuwste kunstmatige-intelligentiemodel van OpenAI, ondanks zijn omvang en impact op de AI-wereld (en daarbuiten), geen volledig openbare documentatie. Dat wil zeggen, we hebben geen idee van wat de uiteindelijke doelen zijn voor de ontwikkelaars, wat ze willen bereiken in het eindresultaat. Daarom kunnen we de risico's die verbonden zijn aan het gebruik van dit AI-model niet volledig inschatten. GPT-3 daarentegen, getraind op gegevens van het 4chan-forum, is een model waarmee u absoluut geen interactie wilt hebben. Het 4chan-forum is een van de meest interessante fenomenen op internet. Dit is een voorbeeld van absolute, totale anarchie, die in de praktijk door geen enkel kader wordt beperkt. Dit is waar hackgroepen zoals Anonymous of LulzSec zijn gemaakt. Het is de bron van veel van de meest populaire memes, een plek om controversiële onderwerpen te bespreken en nog meer controversiële meningen te publiceren. Hoewel het Engelstalige imageboard opmerkt dat "tot dusverre het legaal is", is dit enigszins twijfelachtig, aangezien 4chan zich af en toe bezighoudt met de media, waaronder racistische, nazi- en seksistische inhoud.

AI Postulaat

- Advertentie -

Het team van professor Garibay wil dat elk model van kunstmatige intelligentie werkt binnen een duidelijk gedefinieerd kader. Niet alleen vanwege het welzijn van de persoon met wie de AI communiceert, maar ook vanwege het vermogen om de risico's in te schatten die samenhangen met het gebruik van het model. De structuur van elk project moet respect voor de behoeften, waarden en wensen van verschillende culturele groepen en belanghebbenden omvatten. Het proces van het creëren, trainen en verfijnen van AI moet gericht zijn op het welzijn van de mens, en het eindproduct – het AI-model – moet gericht zijn op het verbeteren en verbeteren van de productiviteit van de menselijke gemeenschap zelf. Modellen waarvan de risico's niet kunnen worden geïdentificeerd, moeten beperkte of gecontroleerde toegang hebben. Ze mogen geen bedreiging vormen voor de mensheid, maar juist bijdragen aan de ontwikkeling van de mens en de samenleving als geheel.

Lees ook: Twitter in de handen van Elon Musk - een bedreiging of "verbetering"?

De vijfde wet: bestuur en onafhankelijk toezicht

Algoritmen voor kunstmatige intelligentie hebben de wereld letterlijk in slechts één jaar veranderd. Bard van Google en Bing gaat in première door Microsoft had een aanzienlijke invloed op de aandelen van beide giganten op de beurs. Ze hebben trouwens bijgedragen aan de groei van de aandelen van deze bedrijven, zelfs tegen de achtergrond van aandelen Apple. ChatGPT wordt actief gebruikt door scholieren, ze communiceren ermee, onderzoeken het en stellen vragen. Het belangrijkste is dat hij het vermogen heeft om zichzelf te leren, zijn fouten te corrigeren. Kunstmatige intelligentie begint zelfs te werken in de regeringen van sommige landen. Dit is het geval van de premier van Roemenië, Nicolae Chuca een virtuele gehuurd een assistent die hem zal informeren over de behoeften van de samenleving. Dat wil zeggen, kunstmatige intelligentie speelt een steeds belangrijkere rol in ons leven.

AI

Gezien de steeds grotere onderlinge afhankelijkheid tussen kunstmatige intelligentie, mens en milieu, achten wetenschappers het noodzakelijk om bestuursorganen en onafhankelijk toezicht op de ontwikkeling ervan te creëren. Deze instanties gaan de hele levenscyclus van kunstmatige intelligentie beheersen: van idee tot ontwikkeling en implementatie. De autoriteiten zullen verschillende AI-modellen naar behoren definiëren en zaken in verband met kunstmatige intelligentie en onderwerpen van het sociale leven in overweging nemen. Dat wil zeggen, kunstmatige intelligentie kan het onderwerp worden van rechtszaken, maar ook van rechtszaken. Hoewel hij natuurlijk niet persoonlijk is, maar zijn ontwikkelaars.

Lees ook: Alles over Neuralink: het begin van Cyberpunk Madness?

De zesde wet: de interactie van de mens en kunstmatige intelligentie

In kunstmatige intelligentieprogramma's kan iedereen iets voor zichzelf vinden: tekst genereren, inhoud in afbeeldingen detecteren, vragen beantwoorden, afbeeldingen genereren, mensen herkennen in foto's, gegevens analyseren. Deze meervoudige toepassingen zijn niet alleen een zorg voor mensen die kunstmatige intelligentie proberen aan te passen aan wettelijke en ethische normen. Velen vrezen door AI-modellen van de arbeidsmarkt te worden verdreven. Omdat algoritmen van kunstmatige intelligentie hetzelfde sneller, goedkoper en misschien zelfs beter zullen kunnen doen dan een mens. Tegelijkertijd zijn er mensen die in hun werk op AI vertrouwen, d.w.z. kunstmatige intelligentie is vandaag al een onmisbare assistent voor hen.

AI

Maar uit de studies waarnaar de wetenschappers verwijzen, wordt duidelijk dat de vervanging van mensen door goedkope kunstmatige arbeid nog ver weg is. Desondanks dringen ze nu al aan op de noodzaak om een ​​strikte hiërarchie van interactie tussen mens en kunstmatige intelligentie vast te stellen. Volgens hen moet de mens boven kunstmatige intelligentie worden geplaatst. Kunstmatige intelligentie moet worden gecreëerd met respect voor de cognitieve vermogens van een persoon, rekening houdend met zijn emoties, sociale interacties, ideeën, planning en interactie met objecten. Dat wil zeggen, in alle situaties is het de persoon die boven de kunstmatige intelligentie moet staan, het gedrag en de inhoud die door het model wordt gecreëerd, moet beheersen en er verantwoordelijk voor moet zijn. Simpel gezegd, zelfs de meest geavanceerde AI moet een persoon gehoorzamen en niet verder gaan dan is toegestaan, om de maker ervan niet te schaden.

Lees ook: Hoe Oekraïne Starlink gebruikt en aanpast in oorlogstijd

conclusies

Ja, iemand zal zeggen dat de wetenschappers niets belangrijks en nieuws in hun rapport hebben aangegeven. Iedereen heeft het er al lang over. Maar nu al is het nodig om AI in een wettelijk kader te plaatsen. Reiken naar GPT-4 is als blindelings naar een mes reiken. Ze verbergen belangrijke informatie voor ons. Alle ontwikkelingen op het gebied van kunstmatige intelligentie, en in het bijzonder het ChatGPT-project van Open AI, doen me vaak denken aan het opvoeden van een klein kind. Soms lijkt het erop dat dit een kind van buitenaardse afkomst is. Ja, een alien, maar hij is nog steeds een kind dat leert, fouten maakt, zich soms ongepast gedraagt, prikkelbaar is, ruzie maakt met zijn ouders. Hoewel het heel snel groeit en zich ontwikkelt.

AI

De mensheid kan haar ontwikkeling niet bijhouden en dingen kunnen uit de hand lopen. Daarom moet de mensheid al begrijpen waarom we dit allemaal ontwikkelen, de uiteindelijke doelen kennen, "verantwoordelijke ouders" zijn, omdat het "kind" anders gewoon zijn "ouders" kan vernietigen.

Lees ook: 

Yuri Svitlyk
Yuri Svitlyk
Zoon van de Karpaten, onbekend genie op het gebied van de wiskunde, 'advocaat'Microsoft, praktische altruïst, links-rechts
- Advertentie -
Aanmelden
Informeer over
gast

0 Heb je vragen? Stel ze hier.
Ingesloten beoordelingen
Bekijk alle reacties