Gebruikers van sociale media beschuldigen Samsung ervan te liegen over het vermogen van de Galaxy S23 Ultra om foto’s van de maan te maken, en om voor mij onduidelijke redenen lijkt iedereen er vrij sterk over te voelen…

Om even de klok terugspoelen, de hele obsessie met”maanfoto’s”lijkt ergens in 2019 te zijn begonnen toen de eerste moderne smartphone met een periscoopzoomcamera (5x optische zoom) werd gelanceerd, die iedereen versteld deed staan ​​met verrassend heldere foto’s van de maan (onder andere handigere zoomfoto’s). De Huawei P30 Pro was inderdaad een van de beste telefooncamera’s in 2019, maar de superkrachten van Huawei werden zwaar onder de loep genomen toen een Weibo-gebruiker de P30 Pro”misleide”om een ​​foto te maken van een wazige blop, die de smartphone nam voor (wacht erop…) de maan. Het vlaggenschip van Huawei slaagde er op de een of andere manier in om het wazige beeld van de maan om te zetten in een veel duidelijkere fotomaan. Hier is het oorspronkelijke Weibo-bericht als je 20 minuten de tijd hebt om het door te nemen ( het is lang). Maar terug naar vandaag, waar we een”fake moon shots deja vu”moment hebben. Nu we niets anders meer te doen hebben, laten we eens kijken of de Galaxy S23 Ultra”nep”foto’s van de maan maakt (ja, ik zal foto’s van de maan maken), en om Borat te citeren, zullen we eindelijk concluderen of Samsung dat moet zijn “uitvoeren”!

“Samsung’s ruimtezoom-en maanfoto’s zijn nep”, zegt Reddit-gebruiker; voert een onderzoek uit met fotobewijs

Links hebben we een wazig beeld van de maan, weergegeven op een laptop; aan de rechterkant hebben we wat de Galaxy S23 Ultra ervan heeft gemaakt.

Voordat ik verder ga met mijn eigen tests en bevindingen, moet ik het hebben over de Reddit-post die de nieuw ontwikkelde interesse in deze niet zo intrigerende samenzwering wekte. Dit is wat de gebruiker met ibreakphotos deed en wat hij ontdekte: De Reddit-gebruiker downloadde een afbeelding van de maan in hoge resolutie van het internet. herkenbaar) Hij uploadde het wazige beeld op zijn laptop, ging naar het andere eind van de kamer en deed alle lichten uit Hij nam een ​​foto van het wazige beeld van de maan, en dit is wat de Galaxy S23 Ultra heeft weten te produceren zie hierboven

De feitencontrole: de maanopname van Samsung testen met de echte maan en met een wazig beeld van de maan

Nu lijkt de foto rechts duidelijk in niets op de afbeelding links. De manier waarop een camera werkt is… Oké, dat leg ik niet uit, maar je begrijpt wat ik bedoel: de telefoon moet een foto maken van wat je ziet, en niet van iets anders (tenzij je die enge camera’s gebruikt). Snapchat-filters).

Hoe dan ook, ik moest natuurlijk mijn eigen”wetenschappelijke”experiment uitvoeren. Ik deed eerst precies wat de Reddit-man deed, stap voor stap zijn methode volgend, en dit is wat ik ontdekte:

Nadat ik dezelfde wazige afbeelding van de maan op mijn MacBook had geüpload en alle lichten had uitgedaan, ging ik naar de aan de andere kant van de kamer. Vervolgens maakte ik een foto met 20x zoom, want dat is precies 20x wanneer de slimme nabewerking van Samsung voor zoomfoto’s meestal begint.

Aan de linkerkant is hetzelfde wazige beeld van de maan dat werd gebruikt in het Reddit-experiment, dat ik geladen op mijn MacBook; aan de rechterkant is de foto van de Galaxy S23 Ultra van de afbeelding met 20x zoom. Tot nu toe niets vreemds-de foto van de Galaxy S23 Ultra deed de maan eigenlijk minder op de maan lijken.

Dus tot mijn opluchting en ongeloof probeerde Samsung me niet voor de gek te houden. De Galaxy S23 Ultra probeerde iets van de wazige klodder te maken, maar eindigde met een nog slechter uitziende foto, wat bewees dat de claims voor nep-maanfoto’s… nep waren. Totdat ik iets anders probeerde. Nadat ik het wazige beeld van de maan op mijn MacBook had geüpload en alle lichten had uitgedaan, ging ik naar het andere eind van de kamer. 50x,100x) om nog een foto van de wazige maan op mijn MacBook-monitor te maken, en voila…

Aan de linkerkant is precies hetzelfde wazige beeld van de maan als weergegeven op mijn MacBook-scherm; aan de rechterkant is wat de Galaxy S23 Ultra wist vast te leggen toen ik verder naar achteren ging en een foto nam met meer dan 25x zoom-ik denk dat het 50x was.

Om de een of andere reden is de nabewerkingsmagie van de Galaxy S23 Ultra besloot dat het tijd was om aan de slag te gaan met een langere brandpuntsafstand (nogmaals, dit gebeurt meestal bij 20x zoom), waardoor ik een heel andere foto kreeg-je raadt het al, die doet denken aan wat onze Reddit-held in zijn eigen experiment wist te krijgen. Een volle maan, vol details, kraters en alle andere kenmerken van de maan, waarvan… ik geen idee heb wat ze werkelijk zijn.

Maar ik ging een stap verder. In feite 239.000 mijl als we kijken naar de afstand tussen de aarde en de maan.

Ik heb een ingezoomde video van de maan gemaakt (de echte, geen afbeelding), evenals een paar foto’s, die al het bovenstaande lijken te bewijzen. Het interessante is dat je zelfs in de videomodus met 20x zoom een ​​aantal details van de maan min of meer kunt onderscheiden.

Houd er rekening mee dat ik mijn best doe om de maan scherp in beeld te houden, terwijl ik ook probeer de belichting (met behulp van de schuifregelaar) om een ​​duidelijk beeld te krijgen. Dat komt omdat in tegenstelling tot foto’s, waar AI in staat is om de maan te herkennen, de focus te vergrendelen en het beeld te verbeteren, dezelfde magie veel moeilijker is om uit te voeren in een video-waarbij veel beelden in realtime bewegen.

Maar als we het hebben over AI en hoe het het uiterlijk van de maan kan veranderen, laten we verder gaan met de eigen uitleg van Samsung…

Ik heb mijn Galaxy S23 Ultra misleid om een ​​duidelijke foto te maken van een wazige maan; of heeft de telefoon me bedrogen? Samsung reageert op beschuldigingen van misleiding van gebruikers en bevestigt dat het AI gebruikt om maanfoto’s te verbeteren

Samsung reageert op kritiek op nep-maanfoto’s. Het antwoord is A-I.

En nu de vraag van een miljoen dollar… zijn de maanfoto’s gemaakt door mijn Galaxy S23 Ultra… nep? Ik denk dat de oorzaak van het misverstand hier het verschil is tussen het maken van een”foto”van de maan en het krijgen van een afbeelding van de maan, en of je het goed vindt met het een of het ander.

Wat de Galaxy S23 Ultra doet (dat is ook volgens de eigen uitleg van Samsung), is dat wanneer het een foto van de maan maakt, de telefoon daadwerkelijk een AI-leeralgoritme gebruikt om verloren details in de maan te reconstrueren. Dat is mogelijk omdat de maan en de aarde getijdengebonden zijn, wat betekent dat je altijd hetzelfde”gezicht”van de maan ziet, wat het trainingsalgoritme van Samsung ook vrij eenvoudig maakt.

De Lunar-detectie-engine is gemaakt met de AI die de verschillende stadia en vormen van de maan, van volle maan tot nieuwe maan, zoals waargenomen door mensen op de planeet. Het gebruikt een AI-model voor diep leren om de maan te detecteren en het gebied dat het inneemt (vierkante doos) in de relevante afbeelding te identificeren. Zodra het AI-model klaar is met leren, kan het het gebied detecteren dat door de maan wordt ingenomen, zelfs in afbeeldingen die niet in de training zijn gebruikt.

Samsung

Dus ja, de”Lunar-detectie-engine”van Samsung (heeft een aantal van dat, Dynamic Island!), wordt getraind met verschillende afbeeldingen van de maan en in verschillende maanfasen om je originele foto’s te verbeteren zodra je voorbij de 25-30x zoommarkering gaat.

Dit bevestigt de theorie dat de maanfoto’s die je maakt met je Galaxy-vlaggenschip inderdaad zijn gewijzigd om er duidelijker en beter uit te zien met de kracht van AI. Hier is het hele proces (volgens een zeer recent bericht van een Samsung Community Manager):

De Galaxy-camera maakt duidelijke foto’s van de maan die verschillende stappen doorloopt, daarbij gebruik makend van verschillende AI-technologieën. De scène-optimalisatietechnologie detecteert automatisch de opgenomen scène, als de focus goed is. Het past de configuratiewaarden aan om de resolutie van het beeld daarna te verbeteren. De Zoom Lock-functie zorgt ook voor een duidelijk voorbeeld door het effect van een onvaste greep te corrigeren. U hoeft alleen maar op de ontspanknop te drukken nadat de maan in een gewenste compositie en locatie is ingekaderd. De Galaxy-camera maakt meerdere opnamen en combineert deze later om eventuele ruis in het uiteindelijke beeld te verwijderen. Het verhoogt de details van het respectieve patroon van de maan
En hier is de nieuwe Samsung persbericht dat ingaat op het”Moon Shot”-debat. Wat vooral interessant is, is de slotzin van het persbericht waarin staat dat Samsung gaat werken aan zijn Scene Optimizer (AI-algoritme) om ervoor te zorgen dat het minder snel voor de gek gehouden wordt-zoals in het experiment dat we zojuist hebben uitgevoerd.

Samsung blijft Scene verbeteren Optimizer om eventuele verwarring tussen het maken van een foto van de echte maan en een afbeelding van de maan te verminderen.

Samsung

Ja, de maanfoto’s van Samsung zijn een soort”nep”, maar de mensen die Snapchat-filters gebruiken, zouden er niet echt om moeten geven, toch?

Mijn Galaxy S23 Ultra nam deze op 30 en 100x zoom. Maar zijn het foto’s van verbeterde afbeeldingen? Maakt het je iets uit?

Mijn oordeel zal iedereen teleurgesteld maken (doe dat graag), aangezien ik niet van plan ben Samsung te”annuleren”. Maar ik sta ook niet op het punt degenen te schrappen die het bedrijf ervan beschuldigden maanfoto’s te vervalsen. Is het OK om AI te gebruiken om foto’s van de maan te verbeteren? Waarom niet? Onze telefoons maken het gras al groener, de lucht blauwer en onze huid… beter
Maakt dat de maanfoto’s van de Galaxy S23 Ultra nep? Als je ze in de puurste zin als”foto’s”beschouwt, ja; maar niet als je ze ziet als een”verwerkt beeld”, wat ze ook zijn
Maakt het uit? Als je het mij vraagt, niet echt; als alles wat je wilt een duidelijke foto van de maan is, dan geef je waarschijnlijk niet om de details
Had Samsung meer vooruit kunnen zijn over hoe de technologie werkt? Ja, helemaal; het is duidelijk dat het marketingteam van Samsung de”droom”van maanfoto’s probeert te verkopen zonder veel uitleg, maar het komt op een moment dat ze er schoon uit moeten komen-wat ze deden
Ik veronderstel dat het allemaal neerkomt op of en in hoeverre het oké is om een ​​foto zo te veranderen dat het een hele andere compositie wordt. En om tot de”verdediging”van Samsung te komen: ik weet niet zeker of het verbeteren van een wazig beeld van de maan (iets toevoegen aan een foto dat er oorspronkelijk niet was) anders is dan Magisch Een vreemdeling wissen van de achtergrond van je foto ( iets verwijderen van een foto die er oorspronkelijk was). Maar ik ben hier ook niet om Samsung te verdedigen. Naar mijn mening, als ik een duidelijke foto van de maan wilde zien, zou ik het gewoon Googlen. Is het niet de bedoeling om een ​​moment in de tijd (een foto) vast te leggen om dat beeld uniek en speciaal te maken?

Hoe bijzonder is een foto van de maan met een relatief lage resolutie zonder context, als ik een vergelijkbare foto kan downloaden , veel duidelijker beeld van internet? En hoe bijzonder is die”foto”wanneer letterlijk iedereen met een Galaxy Ultra hem kan maken? Het is letterlijk de maan op een zwarte achtergrond.

Foto’s van de maan? Met de Huawei P60 Pro kun je binnenkort misschien foto’s maken met de maan! Samsung zal waarschijnlijk inspiratie opdoen voor de Galaxy S24 Ultra, dus maak je klaar, internet…

De Huawei P60 Pro zou de kroon van het bedrijf kunnen terugwinnen als de beste Moon Shot-nemer. Maar hoe nep is nep genoeg?

Dat gezegd hebbende, het is niet zo dat de maan en andere hemellichamen niet de moeite waard zijn om een ​​foto van te maken (integendeel). Ironisch genoeg is het Huawei (de originele Moon Mode-gangster) die misschien een manier heeft bedacht om het gebruik van AI-verbetering te rechtvaardigen om duidelijke foto’s van de maan te maken!

In een foto die wordt gedeeld door Richard Yu, CEO van Huawei, zien we iets dat zelfs telefoons die zo krachtig zijn als de Galaxy S23 Ultra zijn tot nu toe niet in staat geweest om-een samengestelde foto van de maan met context-een object (op aarde!) op de achtergrond te maken.

Ik’Ik wijs hier op het voor de hand liggende, maar als het nieuwe vlaggenschip P60 Pro van Huawei je een duidelijk beeld van de maan kan geven terwijl je een gebouw of een persoon in hetzelfde frame hebt, dan heb ik het gevoel dat maanfoto’s ineens een beetje specialer worden , persoonlijk, nuttig en terecht”verbeterd”.

Maakt dat ze echt? Misschien niet, maar het lijkt erop dat een telefoon binnenkort tegelijkertijd een foto van jou en de maan kan maken. Het maakt je niet uit hoe Snapchat je ezelsoren weet te geven… Je weet gewoon dat je ezelsoren wilt, en Snapchat geeft ze aan jou.

Dus… IDK. Geven we de AI de schuld, of danken we de AI?

Categories: IT Info