दिलचस्प पोस्ट
EditText में टेक्स्ट के अंत में कर्सर रखें क्या आप केवल अपने प्रकार के नकली हैं? 4 में से 3 शर्तों को खोजने के लिए रेगेक्स जावा में एएससीआईआई में स्ट्रिंग का हेक्स परिवर्तित करें सी # में आईपीसी तंत्र – उपयोग और सर्वोत्तम अभ्यास जावा 8: स्ट्रीम बनाम स्ट्रीम के प्रदर्शन जावा स्ट्रिंग्स के लिए '==' का प्रयोग करना। इस जादुई रिकॉर्ड के लिए प्रतिस्थापन विधि क्या बहिष्कृत कॉल है? AngularJS: $ निरीक्षण और $ देखने के तरीके के बीच का अंतर MATLAB में & amp और && के बीच अंतर क्या है? मैं mysqldump से छोटी फ़ाइलों में कैसे आउटपुट कर सकता हूं? छवियों को डाउनलोड करने के लिए एंड्रॉइड पिकासो पुस्तकालय का उपयोग क्यों करें? Ghostscript 9.01 का उपयोग कर पीडीएफ का उपयोग करना एंड्रॉइड: बाएं स्वाइप इशारों को सही कैसे संभालना है एंड्रॉइड- मैं android.net कैसे परिवर्तित कर सकता हूं। यूआरआई ऑब्जेक्ट को java.net.URI ऑब्जेक्ट पर?

पोर्ट्रेट मोड में AVMutableVideoComposition घुमाए गए वीडियो कैप्चर किया गया

मैंने वीडियो के ऊपर छवि ओवरले जोड़ने के लिए कोड का नीचे उपयोग किया है और फिर नया जनरेट किया गया वीडियो को दस्तावेज़ निर्देशिका में निर्यात किया है। लेकिन अजीब तरह से, वीडियो 90 डिग्री तक घुमाया जाता है।

- (void)buildTransitionComposition:(AVMutableComposition *)composition andVideoComposition:(AVMutableVideoComposition *)videoComposition { CMTime nextClipStartTime = kCMTimeZero; NSInteger i; // Make transitionDuration no greater than half the shortest clip duration. CMTime transitionDuration = self.transitionDuration; for (i = 0; i < [_clips count]; i++ ) { NSValue *clipTimeRange = [_clipTimeRanges objectAtIndex:i]; if (clipTimeRange) { CMTime halfClipDuration = [clipTimeRange CMTimeRangeValue].duration; halfClipDuration.timescale *= 2; // You can halve a rational by doubling its denominator. transitionDuration = CMTimeMinimum(transitionDuration, halfClipDuration); } } // Add two video tracks and two audio tracks. AVMutableCompositionTrack *compositionVideoTracks[2]; AVMutableCompositionTrack *compositionAudioTracks[2]; compositionVideoTracks[0] = [composition addMutableTrackWithMediaType:AVMediaTypeVideo preferredTrackID:kCMPersistentTrackID_Invalid]; compositionVideoTracks[1] = [composition addMutableTrackWithMediaType:AVMediaTypeVideo preferredTrackID:kCMPersistentTrackID_Invalid]; compositionAudioTracks[0] = [composition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid]; compositionAudioTracks[1] = [composition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid]; CMTimeRange *passThroughTimeRanges = alloca(sizeof(CMTimeRange) * [_clips count]); CMTimeRange *transitionTimeRanges = alloca(sizeof(CMTimeRange) * [_clips count]); // Place clips into alternating video & audio tracks in composition, overlapped by transitionDuration. for (i = 0; i < [_clips count]; i++ ) { NSInteger alternatingIndex = i % 2; // alternating targets: 0, 1, 0, 1, ... AVURLAsset *asset = [_clips objectAtIndex:i]; NSValue *clipTimeRange = [_clipTimeRanges objectAtIndex:i]; CMTimeRange timeRangeInAsset; if (clipTimeRange) timeRangeInAsset = [clipTimeRange CMTimeRangeValue]; else timeRangeInAsset = CMTimeRangeMake(kCMTimeZero, [asset duration]); AVAssetTrack *clipVideoTrack = [[asset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0]; [compositionVideoTracks[alternatingIndex] insertTimeRange:timeRangeInAsset ofTrack:clipVideoTrack atTime:nextClipStartTime error:nil]; /* CGAffineTransform t = clipVideoTrack.preferredTransform; NSLog(@"Transform1 : %@",t); */ AVAssetTrack *clipAudioTrack = [[asset tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0]; [compositionAudioTracks[alternatingIndex] insertTimeRange:timeRangeInAsset ofTrack:clipAudioTrack atTime:nextClipStartTime error:nil]; // Remember the time range in which this clip should pass through. // Every clip after the first begins with a transition. // Every clip before the last ends with a transition. // Exclude those transitions from the pass through time ranges. passThroughTimeRanges[i] = CMTimeRangeMake(nextClipStartTime, timeRangeInAsset.duration); if (i > 0) { passThroughTimeRanges[i].start = CMTimeAdd(passThroughTimeRanges[i].start, transitionDuration); passThroughTimeRanges[i].duration = CMTimeSubtract(passThroughTimeRanges[i].duration, transitionDuration); } if (i+1 < [_clips count]) { passThroughTimeRanges[i].duration = CMTimeSubtract(passThroughTimeRanges[i].duration, transitionDuration); } // The end of this clip will overlap the start of the next by transitionDuration. // (Note: this arithmetic falls apart if timeRangeInAsset.duration < 2 * transitionDuration.) nextClipStartTime = CMTimeAdd(nextClipStartTime, timeRangeInAsset.duration); nextClipStartTime = CMTimeSubtract(nextClipStartTime, transitionDuration); // Remember the time range for the transition to the next item. transitionTimeRanges[i] = CMTimeRangeMake(nextClipStartTime, transitionDuration); } // Set up the video composition if we are to perform crossfade or push transitions between clips. NSMutableArray *instructions = [NSMutableArray array]; // Cycle between "pass through A", "transition from A to B", "pass through B", "transition from B to A". for (i = 0; i < [_clips count]; i++ ) { NSInteger alternatingIndex = i % 2; // alternating targets // Pass through clip i. AVMutableVideoCompositionInstruction *passThroughInstruction = [AVMutableVideoCompositionInstruction videoCompositionInstruction]; passThroughInstruction.timeRange = passThroughTimeRanges[i]; AVMutableVideoCompositionLayerInstruction *passThroughLayer = [AVMutableVideoCompositionLayerInstruction videoCompositionLayerInstructionWithAssetTrack:compositionVideoTracks[alternatingIndex]]; /* CGAffineTransform rotationTransform = CGAffineTransformMakeRotation(M_PI_2); CGAffineTransform rotateTranslate = CGAffineTransformTranslate(rotationTransform,320,0); [passThroughLayer setTransform:rotateTranslate atTime:kCMTimeZero]; */ passThroughInstruction.layerInstructions = [NSArray arrayWithObject:passThroughLayer]; [instructions addObject:passThroughInstruction]; if (i+1 < [_clips count]) { // Add transition from clip i to clip i+1. AVMutableVideoCompositionInstruction *transitionInstruction = [AVMutableVideoCompositionInstruction videoCompositionInstruction]; transitionInstruction.timeRange = transitionTimeRanges[i]; AVMutableVideoCompositionLayerInstruction *fromLayer = [AVMutableVideoCompositionLayerInstruction videoCompositionLayerInstructionWithAssetTrack:compositionVideoTracks[alternatingIndex]]; AVMutableVideoCompositionLayerInstruction *toLayer = [AVMutableVideoCompositionLayerInstruction videoCompositionLayerInstructionWithAssetTrack:compositionVideoTracks[1-alternatingIndex]]; if (self.transitionType == SimpleEditorTransitionTypeCrossFade) { // Fade out the fromLayer by setting a ramp from 1.0 to 0.0. [fromLayer setOpacityRampFromStartOpacity:1.0 toEndOpacity:0.0 timeRange:transitionTimeRanges[i]]; } else if (self.transitionType == SimpleEditorTransitionTypePush) { // Set a transform ramp on fromLayer from identity to all the way left of the screen. [fromLayer setTransformRampFromStartTransform:CGAffineTransformIdentity toEndTransform:CGAffineTransformMakeTranslation(-composition.naturalSize.width, 0.0) timeRange:transitionTimeRanges[i]]; // Set a transform ramp on toLayer from all the way right of the screen to identity. [toLayer setTransformRampFromStartTransform:CGAffineTransformMakeTranslation(+composition.naturalSize.width, 0.0) toEndTransform:CGAffineTransformIdentity timeRange:transitionTimeRanges[i]]; } transitionInstruction.layerInstructions = [NSArray arrayWithObjects:fromLayer, toLayer, nil]; [instructions addObject:transitionInstruction]; } } videoComposition.instructions = instructions; } 

कृपया मदद करें, क्योंकि मैं उचित वीडियो में पोर्ट्रेट वीडियो निर्यात नहीं कर पा रहा हूं। किसी भी मदद की सराहना की धन्यवाद।

वेब के समाधान से एकत्रित समाधान "पोर्ट्रेट मोड में AVMutableVideoComposition घुमाए गए वीडियो कैप्चर किया गया"

डिफ़ॉल्ट रूप से, जब आप AVAssetExportSession का उपयोग करते हुए वीडियो निर्यात करते हैं तो वीडियो अपने मूल अभिविन्यास से घुमाया जाएगा। आपको इसे सटीक अभिविन्यास सेट करने के लिए उसके परिवर्तन लागू करना होगा। आप कृपया ऐसा करने के लिए नीचे कोड का प्रयास करें।

 - (AVMutableVideoCompositionLayerInstruction *)layerInstructionAfterFixingOrientationForAsset:(AVAsset *)inAsset forTrack:(AVMutableCompositionTrack *)inTrack atTime:(CMTime)inTime { //FIXING ORIENTATION// AVMutableVideoCompositionLayerInstruction *videolayerInstruction = [AVMutableVideoCompositionLayerInstruction videoCompositionLayerInstructionWithAssetTrack:inTrack]; AVAssetTrack *videoAssetTrack = [[inAsset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0]; UIImageOrientation videoAssetOrientation_ = UIImageOrientationUp; BOOL isVideoAssetPortrait_ = NO; CGAffineTransform videoTransform = videoAssetTrack.preferredTransform; if(videoTransform.a == 0 && videoTransform.b == 1.0 && videoTransform.c == -1.0 && videoTransform.d == 0) {videoAssetOrientation_= UIImageOrientationRight; isVideoAssetPortrait_ = YES;} if(videoTransform.a == 0 && videoTransform.b == -1.0 && videoTransform.c == 1.0 && videoTransform.d == 0) {videoAssetOrientation_ = UIImageOrientationLeft; isVideoAssetPortrait_ = YES;} if(videoTransform.a == 1.0 && videoTransform.b == 0 && videoTransform.c == 0 && videoTransform.d == 1.0) {videoAssetOrientation_ = UIImageOrientationUp;} if(videoTransform.a == -1.0 && videoTransform.b == 0 && videoTransform.c == 0 && videoTransform.d == -1.0) {videoAssetOrientation_ = UIImageOrientationDown;} CGFloat FirstAssetScaleToFitRatio = 320.0 / videoAssetTrack.naturalSize.width; if(isVideoAssetPortrait_) { FirstAssetScaleToFitRatio = 320.0/videoAssetTrack.naturalSize.height; CGAffineTransform FirstAssetScaleFactor = CGAffineTransformMakeScale(FirstAssetScaleToFitRatio,FirstAssetScaleToFitRatio); [videolayerInstruction setTransform:CGAffineTransformConcat(videoAssetTrack.preferredTransform, FirstAssetScaleFactor) atTime:kCMTimeZero]; }else{ CGAffineTransform FirstAssetScaleFactor = CGAffineTransformMakeScale(FirstAssetScaleToFitRatio,FirstAssetScaleToFitRatio); [videolayerInstruction setTransform:CGAffineTransformConcat(CGAffineTransformConcat(videoAssetTrack.preferredTransform, FirstAssetScaleFactor),CGAffineTransformMakeTranslation(0, 160)) atTime:kCMTimeZero]; } [videolayerInstruction setOpacity:0.0 atTime:inTime]; return videolayerInstruction; } 

उम्मीद है इससे आपको मदद मिलेगी।

 AVAssetTrack *assetTrack = [[inAsset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0]; AVMutableCompositionTrack *mutableTrack = [mergeComposition mutableTrackCompatibleWithTrack:assetTrack]; AVMutableVideoCompositionLayerInstruction *assetInstruction = [self layerInstructionAfterFixingOrientationForAsset:inAsset forTrack:myLocalVideoTrack atTime:videoTotalDuration]; 

ऊपर बताया गया तरीका कॉल करने के लिए कोड है जहां inAsset आपकी वीडियो परिसंपत्ति है और वीडियो videoTotalDuration में आपके वीडियो कुल अवधि है AVMutableComposition वर्ग का उद्देश्य।

आशा है कि इससे मदद मिलेगी

संपादित करें: यह किसी भी कॉलबैक विधि या घटना नहीं है, आपको ऊपर बताए अनुसार आवश्यक मानदंडों के साथ इसे कॉल करना होगा।

यहां थोड़ा आसान तरीका है यदि आप मूल रोटेशन को बनाए रखना चाहते हैं।

 // Grab the source track from AVURLAsset for example. AVAssetTrack *assetVideoTrack = [asset tracksWithMediaType:AVMediaTypeVideo].lastObject; // Grab the composition video track from AVMutableComposition you already made. AVMutableCompositionTrack *compositionVideoTrack = [composition tracksWithMediaType:AVMediaTypeVideo].lastObject; // Apply the original transform. if (assetVideoTrack && compositionVideoTrack) { [compositionVideoTrack setPreferredTransform:assetVideoTrack.preferredTransform]; } // Export... 

AVMutableVideoComposition में वीडियो परिसंपत्ति अभिविन्यास के अनुसार सही उन्मुखीकरण निर्धारित करने के लिए नीचे विधि का उपयोग करें

 -(AVMutableVideoComposition *) getVideoComposition:(AVAsset *)asset { AVAssetTrack *videoTrack = [[asset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0]; AVMutableComposition *composition = [AVMutableComposition composition]; AVMutableVideoComposition *videoComposition = [AVMutableVideoComposition videoComposition]; CGSize videoSize = videoTrack.naturalSize; BOOL isPortrait_ = [self isVideoPortrait:asset]; if(isPortrait_) { NSLog(@"video is portrait "); videoSize = CGSizeMake(videoSize.height, videoSize.width); } composition.naturalSize = videoSize; videoComposition.renderSize = videoSize; // videoComposition.renderSize = videoTrack.naturalSize; // videoComposition.frameDuration = CMTimeMakeWithSeconds( 1 / videoTrack.nominalFrameRate, 600); AVMutableCompositionTrack *compositionVideoTrack; compositionVideoTrack = [composition addMutableTrackWithMediaType:AVMediaTypeVideo preferredTrackID:kCMPersistentTrackID_Invalid]; [compositionVideoTrack insertTimeRange:CMTimeRangeMake(kCMTimeZero, asset.duration) ofTrack:videoTrack atTime:kCMTimeZero error:nil]; AVMutableVideoCompositionLayerInstruction *layerInst; layerInst = [AVMutableVideoCompositionLayerInstruction videoCompositionLayerInstructionWithAssetTrack:videoTrack]; [layerInst setTransform:videoTrack.preferredTransform atTime:kCMTimeZero]; AVMutableVideoCompositionInstruction *inst = [AVMutableVideoCompositionInstruction videoCompositionInstruction]; inst.timeRange = CMTimeRangeMake(kCMTimeZero, asset.duration); inst.layerInstructions = [NSArray arrayWithObject:layerInst]; videoComposition.instructions = [NSArray arrayWithObject:inst]; return videoComposition; } -(BOOL) isVideoPortrait:(AVAsset *)asset { BOOL isPortrait = FALSE; NSArray *tracks = [asset tracksWithMediaType:AVMediaTypeVideo]; if([tracks count] > 0) { AVAssetTrack *videoTrack = [tracks objectAtIndex:0]; CGAffineTransform t = videoTrack.preferredTransform; // Portrait if(ta == 0 && tb == 1.0 && tc == -1.0 && td == 0) { isPortrait = YES; } // PortraitUpsideDown if(ta == 0 && tb == -1.0 && tc == 1.0 && td == 0) { isPortrait = YES; } // LandscapeRight if(ta == 1.0 && tb == 0 && tc == 0 && td == 1.0) { isPortrait = NO; } // LandscapeLeft if(ta == -1.0 && tb == 0 && tc == 0 && td == -1.0) { isPortrait = NO; } } return isPortrait; } 

तेजी से जवाब देने में … यह मेरे लिए काम करता है

  var assetVideoTrack = (sourceAsset.tracksWithMediaType(AVMediaTypeVideo)).last as! AVAssetTrack var compositionVideoTrack = (composition.tracksWithMediaType(AVMediaTypeVideo)).last as! AVMutableCompositionTrack if (assetVideoTrack.playable && compositionVideoTrack.playable) { compositionVideoTrack.preferredTransform = assetVideoTrack.preferredTransform } 

स्विफ्ट 2:


 कर {
             पथों को दें = NSSearchPathForDirectoriesInDomains (
                 NSSearchPathDirectory.DocumentDirectory, NSSearchPathDomainMask.UserDomainMask, सच है)
             दस्तावेज़ों को डायरेक्टरी दें: AnyObject = पथ [0]
             // यह गतिशील वीडियो को समायोजित करने के लिए बदला जाएगा
             डेटापाथ = दस्तावेज देंनिर्देशिका। स्टोअरबैपिंगपैथकंपोनेंट (वीडियोफ़ाइलनाम + "। MOV")
             वीडियोएसेट = AVURLASet (यूआरएल: एनएसयूआरएल (fileURLWithPath: डेटापथ), विकल्प दें: शून्य)
             imgGenerator = AVAssetImageGenerator (परिसंपत्ति: videoAsset) दें
             imgGenerator.applies प्रत्याक्षितट्रैकट्रान्सफोर्म = सच
             cgImage दें = प्रयास करें imgGenerator.copyCGImageAtTime (CMTimeMake (0, 1), वास्तविक समय: शून्य)
             दें uiImage = UIImage (सीजीआईमेज: cgImage)

             videoThumb.image = uiImage
         } पकड़ें एनएसईआरआर {
             प्रिंट ("थंबनेल उत्पन्न करने में त्रुटि: \ (गलती)")
         }